JP7328446B2 - Method and apparatus for signaling of chrominance quantization parameters - Google Patents

Method and apparatus for signaling of chrominance quantization parameters Download PDF

Info

Publication number
JP7328446B2
JP7328446B2 JP2022518321A JP2022518321A JP7328446B2 JP 7328446 B2 JP7328446 B2 JP 7328446B2 JP 2022518321 A JP2022518321 A JP 2022518321A JP 2022518321 A JP2022518321 A JP 2022518321A JP 7328446 B2 JP7328446 B2 JP 7328446B2
Authority
JP
Japan
Prior art keywords
chrominance
offset
picture
video
joint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022518321A
Other languages
Japanese (ja)
Other versions
JP2022549288A (en
Inventor
イゴレヴィッチ チェルニャーク,ロマン
ユリエヴィッチ イコニン,セルゲイ
ミハイロヴィッチ ソロフィエフ,ティモフェイ
アレクサンドロヴィッチ カラブトフ,アレキサンダー
アレクサンドロブナ アルシナ,エレナ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of JP2022549288A publication Critical patent/JP2022549288A/en
Priority to JP2023126663A priority Critical patent/JP2023153193A/en
Application granted granted Critical
Publication of JP7328446B2 publication Critical patent/JP7328446B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)

Description

[関連出願への相互参照]
本特許出願は、2019年9月23日に出願された国際特許出願PCT/RU2019/000664の優先権を主張する。上記の特許出願の開示の全内容を参照により援用する。
[Cross reference to related application]
This patent application claims priority from International Patent Application PCT/RU2019/000664 filed on September 23, 2019. The entire contents of the disclosure of the above patent application are incorporated by reference.

[技術分野]
本出願(開示)の実施形態は、概してピクチャ処理の分野に関し、より詳細には、クロミナンス量子化パラメータのシグナリングのための方法及び装置に関する。
[Technical field]
TECHNICAL FIELD Embodiments of the present application (disclosure) relate generally to the field of picture processing, and more particularly to methods and apparatus for signaling of chrominance quantization parameters.

ビデオコーディング(ビデオ符号化及び/又は復号)は、広範囲のデジタルビデオアプリケーション、例えば、放送デジタルTV、インターネット及び移動ネットワーク上のビデオ送信、ビデオチャットのようなリアルタイム会話アプリケーション、ビデオ会議、DVD及びブルーレイディスク、ビデオコンテンツ取得及び編集システム、並びにセキュリティアプリケーションのカムコーダにおいて使用される。 Video coding (video encoding and/or decoding) is used in a wide range of digital video applications, such as broadcast digital TV, video transmission over the Internet and mobile networks, real-time conversational applications such as video chat, videoconferencing, DVD and Blu-ray discs. , video content acquisition and editing systems, and camcorders for security applications.

比較的短いビデオですら描写するために必要なビデオデータの量は相当なものになる可能性があり、これは、データがストリーミングされるとき或いは限られた帯域幅容量を有する通信ネットワークを横切って通信されるときに、困難を生じることがある。したがって、ビデオデータは、一般的に、現代の電気通信ネットワークを横切って通信される前に圧縮される。メモリリソースが制限されることがあるので、ビデオが記憶デバイスに記憶されるとき、ビデオのサイズも問題になる可能性がある。ビデオ圧縮デバイスは、しばしば、送信又は記憶の前にビデオデータをコーディングするためにソースにおいてソフトウェア及び/又はハードウェアを使用し、それにより、デジタルビデオ画像を表すために必要なデータの量を減少させる。次いで、圧縮されたデータは、ビデオデータを復号するビデオ解凍デバイスにより宛先で受信される。限られたネットワークリソース及びより高いビデオ品質についての更に高まる要求のため、ピクチャ品質にほとんど或いは全く犠牲を払わず、圧縮比を改善する圧縮及び解凍技術が望ましい。 The amount of video data required to render even a relatively short video can be substantial when the data is streamed or across communication networks with limited bandwidth capacity. Difficulties may arise when being communicated. Therefore, video data is typically compressed before being communicated across modern telecommunications networks. The size of the video can also be an issue when the video is stored on a storage device, as memory resources may be limited. Video compression devices often use software and/or hardware at the source to code video data prior to transmission or storage, thereby reducing the amount of data required to represent a digital video image. . The compressed data is then received at the destination by a video decompression device that decodes the video data. Due to limited network resources and ever-increasing demand for higher video quality, compression and decompression techniques that improve compression ratios with little or no sacrifice in picture quality are desirable.

本出願の実施形態は、独立請求項に従って符号化及び復号するための装置及び方法を提供する。 Embodiments of the present application provide apparatus and methods for encoding and decoding according to the independent claims.

上記及び他の目的は、独立請求項の対象物により達成される。更なる実現形式は、従属請求項、詳細な説明及び図面から明らかである。 These and other objects are achieved by the subject matter of the independent claims. Further realizations are evident from the dependent claims, the detailed description and the drawings.

本開示は以下を提供する。
ピクチャの現在ブロックの逆量子化のための方法であって、当該方法はデコーダにより実行され、当該方法は、
ビットストリームを受信するステップと、
ビットストリームからジョイントクロミナンス成分残差(JCCR, joint chrominance component residual)制御フラグを取得するステップと、
JCCR制御フラグに基づいて、ビットストリームからクロミナンスマッピング情報を取得するステップと、
JCCR制御フラグに基づいて、ビットストリームから少なくとも1つのクロミナンス量子化パラメータ(QP, quantization parameter)オフセットを取得するステップと、
取得されたクロミナンスマッピング情報及び少なくとも1つの取得されたクロミナンスQPオフセットに基づいて、現在クロミナンスブロックについてのQP値を取得するステップと、
決定されたQP値を使用することにより、現在クロミナンスブロックに対して逆量子化を実行するステップと
を含む方法。
This disclosure provides:
A method for inverse quantization of a current block of a picture, the method being performed by a decoder, the method comprising:
receiving a bitstream;
obtaining a joint chrominance component residual (JCCR) control flag from the bitstream;
obtaining chrominance mapping information from the bitstream based on JCCR control flags;
obtaining at least one chrominance quantization parameter (QP) offset from the bitstream based on JCCR control flags;
obtaining a QP value for the current chrominance block based on the obtained chrominance mapping information and at least one obtained chrominance QP offset;
performing inverse quantization on the current chrominance block by using the determined QP value.

ここで、JCCRモードのためのクロミナンス成分についてのPPS及びスライスヘッダQPオフセットのシグナリング、並びにJCCRコーディングモードのためのSPSクロミナンスマッピング情報のシグナリングが実行される。 Here, signaling of PPS and slice header QP offsets for chrominance components for JCCR mode and signaling of SPS chrominance mapping information for JCCR coding mode are performed.

SPS JCCR制御フラグに依存して、ジョイントクロミナンス成分残差オフセットのシグナリング/復号が実行される。ジョイントクロミナンス成分残差オフセットの条件付きシグナリングのため、より少ない情報がシグナリングされる必要があり、したがって、リソースを節約できる。 Depending on the SPS JCCR control flag, joint chrominance component residual offset signaling/decoding is performed. Because of the conditional signaling of joint chrominance component residual offsets, less information needs to be signaled, thus saving resources.

上記の方法において、ビットストリームは、SPSレベルシンタックスを含んでもよく、JCCR制御フラグは、SPSレベルシンタックスから取得されてもよい。 In the above method, the bitstream may contain SPS level syntax and the JCCR control flags may be obtained from the SPS level syntax.

上記の方法において、JCCR制御フラグはsps_joint_cbcr_enabled_flagでもよい。 In the above method, the JCCR control flag may be sps_joint_cbcr_enabled_flag.

ここで、sps_joint_cbcr_enabled_flagは、クロマ残差のジョイントコーディングが有効であるか否かを指定する。ここで、1に等しいsps_joint_cbcr_enabled_flagは、クロマ残差のジョイントコーディングがコーディング済レイヤビデオシーケンス(CLVS, coded layer video sequence)について有効であることを指定し、0に等しいsps_joint_cbcr_enabled_flagは、クロマ残差のジョイントコーディングがコードレイヤビデオシーケンスについて無効であることを指定し、存在しないとき、sps_joint_cbcr_enabled_flagの値は0に等しいと推定される。 Here, sps_joint_cbcr_enabled_flag specifies whether joint coding of chroma residuals is enabled. where sps_joint_cbcr_enabled_flag equal to 1 specifies that joint coding of chroma residuals is enabled for the coded layer video sequence (CLVS), and sps_joint_cbcr_enabled_flag equal to 0 specifies that joint coding of chroma residuals is enabled. specifies that is disabled for the code layer video sequence, and when absent, the value of sps_joint_cbcr_enabled_flag is assumed to be equal to 0.

上記の方法において、sps_joint_cbcr_enabled_flagの値が1である場合、少なくとも1つの取得されたクロミナンスQPオフセットは、slice_joint_cbcr_qp_offsetにより指定されてもよい。ここで、slice_joint_cbcr_qp_offsetは、スライスヘッダシンタックスにおいて提示でき、Qp'CbCrの値を決定するときにpps_joint_cbcr_qp_offset_valueの値に加算されるべき差分を指定する。slice_joint_cbcr_qp_offsetの値は、-12以上+12以下の範囲にあるものとする。slice_joint_cbcr_qp_offsetが存在しないとき、これは0に等しいと推定される。pps_joint_cbcr_qp_offset_value+slice_joint_cbcr_qp_offsetの値は、-12以上+12以下の範囲にあるものとする。 In the above method, if the value of sps_joint_cbcr_enabled_flag is 1, at least one obtained chrominance QP offset may be specified by slice_joint_cbcr_qp_offset. Here, slice_joint_cbcr_qp_offset can be present in the slice header syntax and specifies the difference to be added to the value of pps_joint_cbcr_qp_offset_value when determining the value of Qp'CbCr . The value of slice_joint_cbcr_qp_offset shall be in the range of -12 to +12. When slice_joint_cbcr_qp_offset is not present, it is assumed to be equal to 0. The value of pps_joint_cbcr_qp_offset_value+slice_joint_cbcr_qp_offset shall be in the range of -12 to +12.

ここで、フラグslice_joint_cbcr_qp_offsetはまた、sh_joint_cbcr_qp_offsetとも表されてもよい。 Here, the flag slice_joint_cbcr_qp_offset may also be denoted as sh_joint_cbcr_qp_offset.

上記の方法において、クロミナンスマッピング情報は、delta_qp_in_val_minus1[i][j]及びdelta_qp_out_val[i][j]を含んでもよく、クロミナンスマッピング情報は、ビットストリームに含まれるSPSレベルシンタックスから取得されてもよい。 In the above method, the chrominance mapping information may include delta_qp_in_val_minus1[i][j] and delta_qp_out_val[i][j], and the chrominance mapping information may be obtained from the SPS level syntax included in the bitstream. .

ここで、sps_delta_qp_in_val_minus1[i][j]は、第iのクロマQPマッピングテーブルの第jのピボット点の入力座標を導出するために使用されるデルタ値を指定し、存在しないとき、sps_delta_qp_in_val_minus1[0][j]の値は0に等しいと推定され、i、jは整数値である。ここで、delta_qp_out_val[i][j]は、第iのクロマQPマッピングテーブルの第jのピボット点の出力座標を導出するために使用されるデルタ値を指定する。delta_qp_out_val[0][j]がビットストリームに存在しないとき、delta_qp_out_val[0][j]の値は0に等しいと推定される。ここで、delta_qp_out_valはまた、sps_delta_qp_diff_valとも表されてもよい。 where sps_delta_qp_in_val_minus1[i][j] specifies the delta value used to derive the input coordinates of the jth pivot point of the ith chroma QP mapping table, and if not present, sps_delta_qp_in_val_minus1[0] The value of [j] is assumed to be equal to 0 and i, j are integer values. where delta_qp_out_val[i][j] specifies the delta value used to derive the output coordinate of the jth pivot point of the ith chroma QP mapping table. The value of delta_qp_out_val[0][j] is assumed to be equal to 0 when delta_qp_out_val[0][j] is not present in the bitstream. Here, delta_qp_out_val may also be denoted as sps_delta_qp_diff_val.

上記の方法において、SPSレベルシンタックスは、以下の構造を含んでもよい。

Figure 0007328446000001
In the above method, the SPS level syntax may include the following structure.
Figure 0007328446000001

したがって、JCCRモードのためのクロミナンス成分についてのPPS及びスライスヘッダQPオフセットのシグナリング、並びにJCCRコーディングモードのためのSPSクロミナンスマッピング情報のシグナリングは、上記の表に従って、SPS JCCR制御フラグに依存して実行されてもよい。例えば、sps JCCR制御フラグは、SPSレベルシンタックス、例えばseq_parameter_set_rbspシンタックスでシグナリングされるsps_joint_cbcr_enabled_flagである。特に、インデックス「i」の値は、sps_joint_cbcr_enabled_flagの値に基づいて決定され、したがって、JCCRツールが無効であるとき、JCCRシンタックスエレメントの冗長なシグナリングが回避できることが認識され得る。pps_joint_cbcr_qp_offsetのシグナリング/復号は、sps_joint_cbcr_enabled_flagに依存し、すなわち、sps_joint_cbcr_enabled_flagの値が真(例えば、1)であるときにのみ、pps_joint_cbcr_qp_offsetがシグナリングされるか或いは復号できることが認識できる。pps_joint_cbcr_qp_offsetの条件付きシグナリングのため、より少ない情報がシグナリングされる必要があり、したがって、リソースを節約できる。 Therefore, signaling of PPS and slice header QP offsets for chrominance components for JCCR mode, and signaling of SPS chrominance mapping information for JCCR coding mode, is performed dependent on the SPS JCCR control flags according to the table above. may For example, the sps JCCR control flag is sps_joint_cbcr_enabled_flag signaled in SPS level syntax, eg, seq_parameter_set_rbsp syntax. In particular, it can be appreciated that the value of index 'i' is determined based on the value of sps_joint_cbcr_enabled_flag, thus redundant signaling of JCCR syntax elements can be avoided when JCCR tools are disabled. It can be recognized that the signaling/decoding of pps_joint_cbcr_qp_offset depends on sps_joint_cbcr_enabled_flag, ie pps_joint_cbcr_qp_offset can be signaled or decoded only when the value of sps_joint_cbcr_enabled_flag is true (eg, 1). Due to the conditional signaling of pps_joint_cbcr_qp_offset, less information needs to be signaled, thus saving resources.

ここで、seq_parameter_set_rbspは、シーケンスパラメータセットの未加工バイトシーケンスペイロード(RBSP, Raw Byte Sequence Payload)シンタックスを示し、sps_num_points_in_qp_table_minus1[i]に1を加えたものは、第iのクロマQPマッピングテーブルを記述するために使用される点の数を指定し、sps_num_points_in_qp_table_minus1[i]の値は、0から36の範囲にあり、存在しないとき、sps_num_points_in_qp_table_minus1[0]の値は0に等しいと推定される。 where seq_parameter_set_rbsp denotes the Raw Byte Sequence Payload (RBSP) syntax of the sequence parameter set, and sps_num_points_in_qp_table_minus1[i] plus 1 describes the i-th chroma QP mapping table The value of sps_num_points_in_qp_table_minus1[i] ranges from 0 to 36, and when absent, the value of sps_num_points_in_qp_table_minus1[0] is assumed to be equal to 0.

上記の方法において、JCCR制御フラグに基づいて、ビットストリームから少なくとも1つのクロミナンスQPオフセットを取得するステップは、JCCR制御フラグに基づいて、ビットストリームのピクチャパラメータセット(PPS, picture parameter set)レベルシンタックスから少なくとも1つのクロミナンスQPオフセットを取得するステップを含んでもよい。 In the above method, the step of obtaining at least one chrominance QP offset from the bitstream based on the JCCR control flags is a picture parameter set (PPS) level syntax of the bitstream based on the JCCR control flags. obtaining at least one chrominance QP offset from .

上記の方法において、PPSレベルシンタックスは、以下の構造を含んでもよい。

Figure 0007328446000002
In the above method, the PPS level syntax may include the following structure.
Figure 0007328446000002

ここで、pic_parameter_set_rbspは、ピクチャパラメータセットRBSPシンタックスを示し、pps_cb_qp_offset及びpps_cr_qp_offsetは、それぞれQp'Cb及びQp'Crを導出するために使用されるルマ量子化パラメータQp'Yへのオフセットを指定し、pps_cb_qp_offset及びpps_cr_qp_offsetの値は、-12以上+12以下の範囲にあり、sps_croma_format_idcが0に等しいとき、pps_cb_qp_offset及びpps_cr_qp_offsetは、復号プロセスにおいて使用されず、デコーダはこれらの値を無視するものとし、存在しないとき、pps_cb_qp_offset及びpps_cr_qp_offsetの値は0に等しいと推定され、1に等しいsps_joint_cbcr_enabled_flagは、クロマ残差のジョイントコーディングがコーディング済レイヤビデオシーケンス(CLVS, coded layer video sequence)について有効であることを指定し、0に等しいsps_joint_cbcr_enabled_flagは、クロマ残差のジョイントコーディングがCLVSについて無効であることを指定し、存在しないとき、sps_joint_cbcr_enabled_flagの値は、0に等しいと推定される。pps_joint_cbcr_qp_offset_valueは、Qp'CbCrを導出するために使用されるルマ量子化パラメータQp'Yへのオフセットを指定し、pps_joint_cbcr_qp_offset_valueの値は、-12以上+12以下の範囲にある。 where pic_parameter_set_rbsp denotes the picture parameter set RBSP syntax, pps_cb_qp_offset and pps_cr_qp_offset specify the offset to the luma quantization parameter Qp'Y used to derive Qp'Cb and Qp'Cr , respectively; The values of pps_cb_qp_offset and pps_cr_qp_offset are in the range -12 to +12 inclusive, and when sps_chroma_format_idc is equal to 0, pps_cb_qp_offset and pps_cr_qp_offset shall not be used in the decoding process, decoders shall ignore these values and shall not be present when the values of pps_cb_qp_offset and pps_cr_qp_offset are assumed to be equal to 0, and sps_joint_cbcr_enabled_flag equal to 1 specifies that joint coding of chroma residuals is enabled for the coded layer video sequence (CLVS), sps_joint_cbcr_enabled_flag equal to 0 specifies that joint coding of chroma residuals is disabled for CLVS; when absent, the value of sps_joint_cbcr_enabled_flag is assumed to be equal to 0. pps_joint_cbcr_qp_offset_value specifies the offset to the luma quantization parameter Qp'Y used to derive Qp'CbCr , and the value of pps_joint_cbcr_qp_offset_value is in the range from -12 to +12.

本開示は、ピクチャの現在ブロックの逆量子化のための方法を更に提供し、当該方法はデコーダにより実行され、当該方法は、
ビットストリームを受信するステップであり、ビットストリームは、スライスヘッダシンタックス及びPPSシンタックスを含む、ステップと、
PPSシンタックスからシンタックスエレメントを取得するステップであり、取得されたシンタックスエレメントは、少なくとも1つのクロミナンス量子化パラメータ(QP, quantization parameter)オフセットを含む、ステップと、
スライスヘッダからクロミナンスQPオフセット情報を取得するステップであり、QPオフセット情報は、PPSシンタックス内のいずれかのPPSシンタックスエレメントから独立して取得される、ステップと、
PPSシンタックスから取得された少なくとも1つのクロミナンスQPオフセット及びスライスヘッダシンタックスから取得されたクロミナンスQPオフセット情報に依存して、現在クロミナンスブロックについてのQP値を決定するステップと、
決定されたQP値を使用することにより、現在クロミナンスブロックに対して逆量子化を実行するステップと
を含む。
The disclosure further provides a method for inverse quantization of a current block of a picture, the method being performed by a decoder, the method comprising:
receiving a bitstream, the bitstream comprising slice header syntax and PPS syntax;
obtaining a syntax element from the PPS syntax, the obtained syntax element including at least one chrominance quantization parameter (QP) offset;
obtaining chrominance QP offset information from a slice header, wherein the QP offset information is obtained independently from any PPS syntax element within the PPS syntax;
determining a QP value for the current chrominance block dependent on at least one chrominance QP offset obtained from the PPS syntax and chrominance QP offset information obtained from the slice header syntax;
and performing inverse quantization on the current chrominance block by using the determined QP value.

したがって、クロミナンス成分についてのPPS及びスライスヘッダQPオフセットのシグナリングは、上記の表に従って互いに独立して実行される。その代わりに、以前では、フラグpps_slice_chroma_qp_offsets_present_flagは、PPSレベルシンタックスでシグナリングされ、これは、スライスヘッダでシグナリングするいずれかの更なるオフセットが存在するか否かを制御し、すなわち、デコーダ側では、デコーダは、スライスヘッダでシグナリングされるいずれかの更なるオフセットが存在するか否かを決定するために、pps_slice_chroma_qp_offsets_present_flagの値を検査する必要がある。以前の方法と比較すると、ここでは、上記の方法において、フラグpps_slice_chroma_qp_offsets_present_flagは、もはやシグナリングされない。言い換えると、常にスライスヘッダでシグナリングされるオフセットが存在し、したがって、デコーダは、pps_slice_chroma_qp_offsets_present_flagの値を検査せずに、スライスヘッダでシグナリングされる更なるオフセットが存在することを知っており、言い換えると、PPSレベルシンタックス及びスライスヘッダシンタックスは双方ともに常にオフセットを含む。したがって、スライスヘッダにおけるクロミナンスQPオフセットの復号/シグナリングはより簡単になる。 Therefore, the signaling of PPS and slice header QP offsets for chrominance components is performed independently of each other according to the table above. Instead, previously the flag pps_slice_chroma_qp_offsets_present_flag was signaled in the PPS level syntax, which controls whether there are any further offsets to signal in the slice header, i.e., on the decoder side, the decoder should check the value of pps_slice_chroma_qp_offsets_present_flag to determine if there are any additional offsets signaled in the slice header. Compared to the previous method, here in the above method the flag pps_slice_chroma_qp_offsets_present_flag is no longer signaled. In other words, there are always offsets signaled in the slice header, so the decoder knows that there are more offsets signaled in the slice header without checking the value of pps_slice_chroma_qp_offsets_present_flag, in other words, Both the PPS level syntax and the slice header syntax always contain an offset. Decoding/signaling of the chrominance QP offsets in the slice header is therefore easier.

上記の方法において、PPSシンタックスから取得された少なくとも1つのクロミナンスQPオフセットは、pps_cb_qp_offset、pps_cr_qp_offset、pps_joint_cbcr_qp_offset及びcu_chroma_qp_offset_enabled_flagを含んでもよい。 In the above method, the at least one chrominance QP offset obtained from the PPS syntax may include pps_cb_qp_offset, pps_cr_qp_offset, pps_joint_cbcr_qp_offset and cu_chroma_qp_offset_enabled_flag.

上記の方法において、cu_chroma_qp_offset_enabled_flagの値が1である場合、PPSシンタックスから取得された少なくとも1つのクロミナンスQPオフセットは、cu_chroma_qp_offset_subdiv、chroma_qp_offset_list_len_minus1、cb_qp_offset_list[i]、cr_qp_offset_list[i]及びjoint_cbcr_qp_offset_list[i]を更に含んでもよく、

Figure 0007328446000003
であり、iは整数である。 In the above method, if the value of cu_chroma_qp_offset_enabled_flag is 1, at least one chrominance QP offset obtained from the PPS syntax is cu_chroma_qp_offset_subdiv, chroma_qp_offset_list_len_minus1, cb_qp_offset_list[i], cr_qp_offset_list[i] and joint_cbcr_qp_offset_list[i ] But it's okay,
Figure 0007328446000003
and i is an integer.

上記の方法において、スライスヘッダシンタックスから取得されたクロミナンスQPオフセット情報は、slice_cb_qp_offset及びslice_cr_qp_offsetを含んでもよい。 In the above method, the chrominance QP offset information obtained from the slice header syntax may include slice_cb_qp_offset and slice_cr_qp_offset.

上記の方法において、ビットストリームに含まれるsps_joint_cbcr_enabled_flagの値が1である場合、スライスヘッダシンタックスから取得されたクロミナンスQPオフセット情報は、slice_joint_cbcr_qp_offsetを更に含んでもよい。 In the above method, if the value of sps_joint_cbcr_enabled_flag included in the bitstream is 1, the chrominance QP offset information obtained from the slice header syntax may further include slice_joint_cbcr_qp_offset.

上記の方法において、PPSシンタックスは、以下の構造を含んでもよい。

Figure 0007328446000004
In the above method, the PPS syntax may include the following structure.
Figure 0007328446000004

上記の方法において、スライスヘッダシンタックスは、以下の構造を含んでもよい。

Figure 0007328446000005
In the above method, the slice header syntax may include the following structure.
Figure 0007328446000005

上記の方法において、フラグpps_slice_chroma_qp_offsets_present_flagは、PPSシンタックスにおいて省略されてもよく、或いは、
スライスヘッダ及びPPSシンタックスは、常に少なくとも1つのクロミナンスQPオフセットに関連するエレメントを含んでもよい。
In the above method, the flag pps_slice_chroma_qp_offsets_present_flag may be omitted in the PPS syntax, or
Slice headers and PPS syntax may always contain at least one chrominance QP offset related element.

本開示は、ピクチャの現在ブロックの逆量子化のための方法を更に提供し、当該方法はエンコーダにより実行され、当該方法は、
ジョイントクロミナンス成分残差(JCCR, joint chrominance component residual)制御フラグをビットストリームに符号化するステップと、
JCCR制御フラグに基づいて、クロミナンスマッピング情報をビットストリームに符号化するステップと、
JCCR制御フラグに基づいて、少なくとも1つのクロミナンス量子化パラメータ(QP, quantization parameter)オフセットをビットストリームに符号化するステップと、
ビットストリームを提供するステップと
を含む。
The disclosure further provides a method for inverse quantization of a current block of a picture, the method being performed by an encoder, the method comprising:
encoding a joint chrominance component residual (JCCR) control flag into the bitstream;
encoding chrominance mapping information into a bitstream based on JCCR control flags;
encoding at least one chrominance quantization parameter (QP) offset into the bitstream based on a JCCR control flag;
and providing a bitstream.

上記の方法において、ビットストリームは、SPSレベルシンタックスを含んでもよく、JCCR制御フラグは、SPSレベルシンタックスに符号化される。 In the above method, the bitstream may contain SPS level syntax, and the JCCR control flags are encoded into the SPS level syntax.

上記の方法において、JCCR制御フラグはsps_joint_cbcr_enabled_flagでもよい。 In the above method, the JCCR control flag may be sps_joint_cbcr_enabled_flag.

上記の方法において、sps_joint_cbcr_enabled_flagの値が1である場合、少なくとも1つの符号化されるクロミナンスQPオフセットは、slice_joint_cbcr_qp_offsetにより指定されてもよい。 In the above method, if the value of sps_joint_cbcr_enabled_flag is 1, at least one coded chrominance QP offset may be specified by slice_joint_cbcr_qp_offset.

上記の方法において、クロミナンスマッピング情報は、delta_qp_in_val_minus1[i][j]及びdelta_qp_out_val[i][j]を含んでもよく、クロミナンスマッピング情報は、ビットストリームに含まれるSPSレベルシンタックスに符号化されてもよい。 In the above method, the chrominance mapping information may include delta_qp_in_val_minus1[i][j] and delta_qp_out_val[i][j], and the chrominance mapping information may be encoded into SPS level syntax included in the bitstream. good.

上記の方法において、SPSレベルシンタックスは、以下の構造を含んでもよい。

Figure 0007328446000006
In the above method, the SPS level syntax may include the following structure.
Figure 0007328446000006

ここで、same_qp_table_for_chromaは、何個のクロマQPマッピングテーブルがシグナリングされたかを示す。same_qp_table_for_chromaが1に等しいときは、1つのクロマQPマッピングテーブルのみがシグナリングされることを指定し、このテーブルはCb及びCr残差に適用され、さらに、sps_joint_cbcr_enabled_flagが1に等しいときのジョイントCb-Cr残差に適用される。0に等しいsame_qp_table_for_chromaは、Cb及びCrについて2つ、並びにsps_joint_cbcr_enabled_flagが1に等しいときのジョイントCb-Crについて更に1つのクロマQPマッピングテーブルがSPSでシグナリングされることを指定する。same_qp_table_for_chromaがビットストリームに存在しないとき、same_qp_table_for_chromaの値は1に等しいと推定される。 where same_qp_table_for_chroma indicates how many chroma QP mapping tables have been signaled. Specifies that only one chroma QP mapping table is signaled when same_qp_table_for_chroma is equal to 1, this table applies to Cb and Cr residuals, and joint Cb-Cr residuals when sps_joint_cbcr_enabled_flag is equal to 1. applied to the difference. same_qp_table_for_chroma equal to 0 specifies that two for Cb and Cr and one more chroma QP mapping table for joint Cb-Cr when sps_joint_cbcr_enabled_flag is equal to one are signaled in the SPS. The value of same_qp_table_for_chroma is assumed to be equal to 1 when same_qp_table_for_chroma is not present in the bitstream.

ここで、num_points_in_qp_table_minus1[i]に1を加えたものは、第iのクロマQPマッピングテーブルを記述するために使用される点の数を指定する。num_points_in_qp_table_minus1[i]の値は、0以上63+QpBdOffset以下の範囲にあるものとする。num_points_in_qp_table_minus1[0]がビットストリームに存在しないとき、num_points_in_qp_table_minus1[0]の値は0に等しいと推定される。 where num_points_in_qp_table_minus1[i] plus 1 specifies the number of points used to describe the ith chroma QP mapping table. The value of num_points_in_qp_table_minus1[i] shall be in the range of 0 to 63+QpBdOffset. The value of num_points_in_qp_table_minus1[0] is assumed to be equal to 0 when num_points_in_qp_table_minus1[0] is not present in the bitstream.

上記の方法において、JCCR制御フラグに基づいて、少なくとも1つのクロミナンスQPオフセットをビットストリームに符号化するステップは、
JCCR制御フラグに基づいて、少なくとも1つのクロミナンスQPオフセットをビットストリームのピクチャパラメータセット(PPS, picture parameter set)レベルシンタックスに符号化するステップを含んでもよい。
In the above method, encoding at least one chrominance QP offset into the bitstream based on JCCR control flags comprises:
encoding the at least one chrominance QP offset into a bitstream picture parameter set (PPS) level syntax based on the JCCR control flag;

上記の方法において、PPSレベルシンタックスは、以下の構造を含んでもよい。

Figure 0007328446000007
In the above method, the PPS level syntax may include the following structure.
Figure 0007328446000007

本開示は、ピクチャの現在ブロックの逆量子化のための方法を更に提供してもよく、当該方法はエンコーダにより実行され、当該方法は、
スライスヘッダ及びPPSシンタックスからのシンタックスエレメントをビットストリームに符号化するステップであり、シンタックスエレメントは、少なくとも1つのクロミナンス量子化パラメータ(QP, quantization parameter)オフセットを含む、ステップと、
スライスヘッダからのクロミナンスQPオフセット情報をビットストリームに符号化するステップであり、QPオフセット情報は、PPSシンタックス内のいずれかのPPSシンタックスエレメントから独立して取得される、ステップと、
ビットストリームを提供するステップと
を含む。
The present disclosure may further provide a method for inverse quantization of a current block of a picture, the method being performed by an encoder, the method comprising:
encoding syntax elements from the slice header and PPS syntax into a bitstream, the syntax elements including at least one chrominance quantization parameter (QP) offset;
encoding chrominance QP offset information from the slice header into the bitstream, wherein the QP offset information is obtained independently from any PPS syntax element within the PPS syntax;
and providing a bitstream.

上記の方法において、PPSシンタックスから符号化される少なくとも1つのクロミナンスQPオフセットは、pps_cb_qp_offset、pps_cr_qp_offset、pps_joint_cbcr_qp_offset及びcu_chroma_qp_offset_enabled_flagを含んでもよい。 In the above method, the at least one chrominance QP offset encoded from the PPS syntax may include pps_cb_qp_offset, pps_cr_qp_offset, pps_joint_cbcr_qp_offset and cu_chroma_qp_offset_enabled_flag.

上記の方法において、cu_chroma_qp_offset_enabled_flagの値が1である場合、PPSシンタックスから符号化される少なくとも1つのクロミナンスQPオフセットは、cu_chroma_qp_offset_subdiv、chroma_qp_offset_list_len_minus1、cb_qp_offset_list[i]、cr_qp_offset_list[i]及びjoint_cbcr_qp_offset_list[i]を更に含んでもよく、

Figure 0007328446000008
であり、iは整数である。 In the above method, if the value of cu_chroma_qp_offset_enabled_flag is 1, at least one chrominance QP offset encoded from the PPS syntax is cu_chroma_qp_offset_subdiv, chroma_qp_offset_list_len_minus1, cb_qp_offset_list[i], cr_qp_offset_list[i] and joint_cbcr_qp_offset_list[i] ] more may contain
Figure 0007328446000008
and i is an integer.

上記の方法において、スライスヘッダシンタックスから符号化されるクロミナンスQPオフセット情報は、slice_cb_qp_offset及びslice_cr_qp_offsetを含んでもよい。 In the above method, the chrominance QP offset information encoded from the slice header syntax may include slice_cb_qp_offset and slice_cr_qp_offset.

上記の方法において、ビットストリームに含まれるsps_joint_cbcr_enabled_flagの値が1である場合、スライスヘッダシンタックスから符号化されるクロミナンスQPオフセット情報は、slice_joint_cbcr_qp_offsetを更に含んでもよい。 In the above method, if the value of sps_joint_cbcr_enabled_flag included in the bitstream is 1, the chrominance QP offset information encoded from the slice header syntax may further include slice_joint_cbcr_qp_offset.

上記の方法において、PPSシンタックスは、以下の構造を含んでもよい。

Figure 0007328446000009
In the above method, the PPS syntax may include the following structure.
Figure 0007328446000009

上記の方法において、スライスヘッダシンタックスは、以下の構造を含んでもよい。

Figure 0007328446000010
In the above method, the slice header syntax may include the following structure.
Figure 0007328446000010

上記の方法において、フラグpps_slice_chroma_qp_offsets_present_flagは、PPSシンタックスにおいて省略されてもよく、或いは、
スライスヘッダ及びPPSシンタックスは、常に少なくとも1つのクロミナンスQPオフセットに関連するエレメントを含んでもよい。
In the above method, the flag pps_slice_chroma_qp_offsets_present_flag may be omitted in the PPS syntax, or
Slice headers and PPS syntax may always contain at least one chrominance QP offset related element.

本開示は、上記の方法に従って当該方法を実行するための処理回路を含むデコーダを更に提供する。 The present disclosure further provides a decoder including processing circuitry for performing the method according to the above method.

本開示は、上記の方法を実行するための処理回路を含むエンコーダを更に提供する。 The present disclosure further provides an encoder including processing circuitry for performing the above method.

本開示はまた、コンピュータ又はプロセッサ上で実行されたとき、上記の方法を実行するためのプログラムコードを含むコンピュータプログラム製品を提供する。 The present disclosure also provides a computer program product containing program code for performing the above method when run on a computer or processor.

本開示は、1つ以上のプロセッサと、プロセッサに結合されてプロセッサによる実行のためのプログラミングを記憶する非一時的なコンピュータ読み取り可能記憶媒体とを含むデコーダを更に提供し、プログラミングは、プロセッサにより実行されたき、上記の方法を実行するようにデコーダを構成する。 The present disclosure further provides a decoder that includes one or more processors and a non-transitory computer-readable storage medium coupled to the processor and storing programming for execution by the processor, the programming being executed by the processor. Then configure the decoder to perform the above method.

本開示は、1つ以上のプロセッサと、プロセッサに結合されてプロセッサによる実行のためのプログラミングを記憶する非一時的なコンピュータ読み取り可能記憶媒体とを含むエンコーダを更に提供し、プログラミングは、プロセッサにより実行されたき、上記の方法を実行するようにエンコーダを構成する。 The present disclosure further provides an encoder including one or more processors and a non-transitory computer readable storage medium coupled to the processor and storing programming for execution by the processor, the programming being executed by the processor. Then configure the encoder to perform the above method.

本開示は、コンピュータデバイスにより実行されたとき、コンピュータデバイスに上記の方法を実行させるプログラムコードを搬送する非一時的なコンピュータ読み取り可能媒体を更に提供する。 The present disclosure further provides a non-transitory computer-readable medium that, when executed by a computing device, carries program code that causes the computing device to perform the above method.

本開示は、ビットストリームを受信するように構成された受信ユニットと、ビットストリームからジョイントクロミナンス成分残差(JCCR, joint chrominance component residual)制御フラグを取得するように構成された第1の取得ユニットと、JCCR制御フラグに基づいて、ビットストリームからクロミナンスマッピング情報を取得するように構成された第2の取得ユニットと、JCCR制御フラグに基づいて、ビットストリームから少なくとも1つのクロミナンス量子化パラメータ(QP, quantization parameter)オフセットを取得するように構成された第3の取得ユニットと、取得されたクロミナンスマッピング情報及び少なくとも1つの取得されたクロミナンスQPオフセットに基づいて、現在クロミナンスブロックについてのQP値を取得するように構成された第4の取得ユニットと、決定されたQP値を使用することにより、現在クロミナンスブロックに対して逆量子化を実行するように構成された逆量子化ユニットとを含むデコーダを更に提供する。 The present disclosure includes a receiving unit configured to receive a bitstream and a first obtaining unit configured to obtain a joint chrominance component residual (JCCR) control flag from the bitstream. , a second obtaining unit configured to obtain chrominance mapping information from the bitstream based on the JCCR control flags; and at least one chrominance quantization parameter (QP, quantization a third obtaining unit configured to obtain a parameter) offset and to obtain a QP value for the current chrominance block based on the obtained chrominance mapping information and the at least one obtained chrominance QP offset; Further providing a decoder comprising a fourth acquisition unit configured and an inverse quantization unit configured to perform inverse quantization on the current chrominance block by using the determined QP value. .

上記のデコーダにおいて、ビットストリームは、SPSレベルシンタックスを含んでもよく、JCCR制御フラグは、SPSレベルシンタックスから取得されてもよい。 In the above decoder, the bitstream may contain SPS level syntax and the JCCR control flags may be obtained from the SPS level syntax.

上記のデコーダにおいて、JCCR制御フラグはsps_joint_cbcr_enabled_flagでもよい。 In the decoder above, the JCCR control flag may be sps_joint_cbcr_enabled_flag.

上記のデコーダにおいて、sps_joint_cbcr_enabled_flagの値が1である場合、少なくとも1つの取得されたクロミナンスQPオフセットは、slice_joint_cbcr_qp_offsetにより指定されてもよい。 In the above decoder, if the value of sps_joint_cbcr_enabled_flag is 1, at least one obtained chrominance QP offset may be specified by slice_joint_cbcr_qp_offset.

上記のデコーダにおいて、クロミナンスマッピング情報は、delta_qp_in_val_minus1[i][j]及びdelta_qp_out_val[i][j]を含んでもよく、クロミナンスマッピング情報は、ビットストリームに含まれるSPSレベルシンタックスから取得されてもよい。 In the decoder above, the chrominance mapping information may include delta_qp_in_val_minus1[i][j] and delta_qp_out_val[i][j], and the chrominance mapping information may be obtained from the SPS level syntax included in the bitstream. .

上記のデコーダにおいて、SPSレベルシンタックスは、以下の構造を含んでもよい。

Figure 0007328446000011
In the decoder above, the SPS level syntax may include the following structure.
Figure 0007328446000011

上記のデコーダにおいて、JCCR制御フラグに基づいて、ビットストリームから少なくとも1つのクロミナンスQPオフセットを取得することは、JCCR制御フラグに基づいて、ビットストリームのピクチャパラメータセット(PPS, picture parameter set)レベルシンタックスから少なくとも1つのクロミナンスQPオフセットを取得することを含んでもよい。 In the above decoder, obtaining at least one chrominance QP offset from the bitstream based on the JCCR control flags is a bitstream picture parameter set (PPS) level syntax based on the JCCR control flags. obtaining at least one chrominance QP offset from .

上記のデコーダにおいて、PPSレベルシンタックスは、以下の構造を含んでもよい。

Figure 0007328446000012
In the decoder above, the PPS level syntax may include the following structure.
Figure 0007328446000012

本開示は、ビットストリームを受信するように構成された受信ユニットであり、ビットストリームは、スライスヘッダシンタックス及びPPSシンタックスを含む、受信ユニットと、PPSシンタックスからシンタックスエレメントを取得するように構成された第1の取得ユニットであり、取得されたシンタックスエレメントは、クロミナンス量子化パラメータ(QP, quantization parameter)オフセットを含む、第1の取得ユニットと、スライスヘッダからクロミナンスQPオフセット情報を取得するように構成された第2の取得ユニットであり、QPオフセット情報は、PPSシンタックス内のいずれかのPPSシンタックスエレメントから独立して取得される、第2の取得ユニットと、PPSシンタックスから取得されたクロミナンスQPオフセット及びスライスヘッダシンタックスから取得されたクロミナンスQPオフセット情報に依存して、現在クロミナンスブロックについてのQP値を決定するように構成された決定ユニットと、決定されたQP値を使用することにより、現在クロミナンスブロックに対して逆量子化を実行するように構成された逆量子化ユニットとを含むデコーダを更に提供する。 The present disclosure is a receiving unit configured to receive a bitstream, the bitstream including slice header syntax and PPS syntax, and to obtain syntax elements from the PPS syntax. A configured first acquisition unit, wherein the acquired syntax element comprises a first acquisition unit including a chrominance quantization parameter (QP) offset, and obtaining chrominance QP offset information from a slice header. wherein the QP offset information is independently obtained from any PPS syntax element in the PPS syntax; and a second obtaining unit configured to obtain from the PPS syntax a determining unit configured to determine a QP value for the current chrominance block in dependence on the obtained chrominance QP offset and the chrominance QP offset information obtained from the slice header syntax; and using the determined QP value. and an inverse quantization unit configured to perform inverse quantization on the current chrominance block.

上記のデコーダにおいて、PPSシンタックスから取得された少なくとも1つのクロミナンスQPオフセットは、pps_cb_qp_offset、pps_cr_qp_offset、pps_joint_cbcr_qp_offset及びcu_chroma_qp_offset_enabled_flagを含んでもよい。 In the above decoder, the at least one chrominance QP offset obtained from the PPS syntax may include pps_cb_qp_offset, pps_cr_qp_offset, pps_joint_cbcr_qp_offset and cu_chroma_qp_offset_enabled_flag.

上記のデコーダにおいて、cu_chroma_qp_offset_enabled_flagの値が1である場合、PPSシンタックスから取得された少なくとも1つのクロミナンスQPオフセットは、cu_chroma_qp_offset_subdiv、chroma_qp_offset_list_len_minus1、cb_qp_offset_list[i]、cr_qp_offset_list[i]及びjoint_cbcr_qp_offset_list[i]を更に含んでもよく、

Figure 0007328446000013
であり、iは整数である。 In the decoder above, if the value of cu_chroma_qp_offset_enabled_flag is 1, then at least one chrominance QP offset obtained from the PPS syntax is cu_chroma_qp_offset_subdiv, chroma_qp_offset_list_len_minus1, cb_qp_offset_list[i], cr_qp_offset_list[i] and joint_cbcr_qp_offset_list[i ] But it's okay,
Figure 0007328446000013
and i is an integer.

上記のデコーダにおいて、スライスヘッダシンタックスから取得されたクロミナンスQPオフセット情報は、slice_cb_qp_offset及びslice_cr_qp_offsetを含んでもよい。 In the decoder above, the chrominance QP offset information obtained from the slice header syntax may include slice_cb_qp_offset and slice_cr_qp_offset.

上記のデコーダにおいて、ビットストリームに含まれるsps_joint_cbcr_enabled_flagの値が1である場合、スライスヘッダシンタックスから取得されたクロミナンスQPオフセット情報は、slice_joint_cbcr_qp_offsetを更に含んでもよい。 In the above decoder, if the value of sps_joint_cbcr_enabled_flag included in the bitstream is 1, the chrominance QP offset information obtained from the slice header syntax may further include slice_joint_cbcr_qp_offset.

上記のデコーダにおいて、PPSシンタックスは、以下の構造を含んでもよい。

Figure 0007328446000014
In the decoder above, the PPS syntax may include the following structure.
Figure 0007328446000014

上記のデコーダにおいて、スライスヘッダシンタックスは、以下の構造を含んでもよい。

Figure 0007328446000015
In the decoder above, the slice header syntax may include the following structure.
Figure 0007328446000015

上記のデコーダにおいて、フラグpps_slice_chroma_qp_offsets_present_flagは、PPSシンタックスにおいて省略されてもよく、或いは、
スライスヘッダ及びPPSシンタックスは、常に少なくとも1つのクロミナンスQPオフセットに関連するエレメントを含んでもよい。
In the decoder above, the flag pps_slice_chroma_qp_offsets_present_flag may be omitted in the PPS syntax, or
Slice headers and PPS syntax may always contain at least one chrominance QP offset related element.

本開示は、ジョイントクロミナンス成分残差(JCCR, joint chrominance component residual)制御フラグをビットストリームに符号化するように構成された第1の符号化ユニットと、JCCR制御フラグに基づいて、クロミナンスマッピング情報をビットストリームに符号化するように構成された第2の符号化ユニットと、JCCR制御フラグに基づいて、少なくとも1つのクロミナンス量子化パラメータ(QP, quantization parameter)オフセットをビットストリームに符号化するように構成された第3の符号化ユニットと、ビットストリームを提供するように構成された提供ユニットとを含むエンコーダを更に提供する。 The present disclosure provides a first encoding unit configured to encode a joint chrominance component residual (JCCR) control flag into a bitstream, and based on the JCCR control flag, chrominance mapping information. a second encoding unit configured to encode into the bitstream and configured to encode at least one chrominance quantization parameter (QP) offset into the bitstream based on a JCCR control flag; and a providing unit configured to provide a bitstream.

上記のエンコーダにおいて、ビットストリームは、SPSレベルシンタックスを含んでもよく、JCCR制御フラグは、SPSレベルシンタックスから取得されてもよい。 In the above encoder, the bitstream may contain SPS level syntax and the JCCR control flags may be obtained from the SPS level syntax.

上記のエンコーダにおいて、JCCR制御フラグはsps_joint_cbcr_enabled_flagでもよい。 In the above encoder, the JCCR control flag may be sps_joint_cbcr_enabled_flag.

上記のエンコーダにおいて、sps_joint_cbcr_enabled_flagの値が1である場合、少なくとも1つの取得されたクロミナンスQPオフセットは、slice_joint_cbcr_qp_offsetにより指定されてもよい。 In the above encoder, if the value of sps_joint_cbcr_enabled_flag is 1, at least one obtained chrominance QP offset may be specified by slice_joint_cbcr_qp_offset.

上記のエンコーダにおいて、クロミナンスマッピング情報は、delta_qp_in_val_minus1[i][j]及びdelta_qp_out_val[i][j]を含んでもよく、クロミナンスマッピング情報は、ビットストリームに含まれるSPSレベルシンタックスから取得されてもよい。 In the above encoder, the chrominance mapping information may include delta_qp_in_val_minus1[i][j] and delta_qp_out_val[i][j], and the chrominance mapping information may be obtained from the SPS level syntax included in the bitstream. .

上記のエンコーダにおいて、SPSレベルシンタックスは、以下の構造を含んでもよい。

Figure 0007328446000016
In the above encoder, the SPS level syntax may include the following structure.
Figure 0007328446000016

上記のエンコーダにおいて、JCCR制御フラグに基づいて、ビットストリームから少なくとも1つのクロミナンスQPオフセットを取得することは、JCCR制御フラグに基づいて、ビットストリームのピクチャパラメータセット(PPS, picture parameter set)レベルシンタックスから少なくとも1つのクロミナンスQPオフセットを取得することを含んでもよい。 In the above encoder, obtaining at least one chrominance QP offset from the bitstream based on the JCCR control flags is a bitstream picture parameter set (PPS) level syntax based on the JCCR control flags. obtaining at least one chrominance QP offset from .

上記のエンコーダにおいて、PPSレベルシンタックスは、以下の構造を含んでもよい。

Figure 0007328446000017
In the encoder above, the PPS level syntax may include the following structure.
Figure 0007328446000017

本開示は、スライスヘッダ及びPPSシンタックスからのシンタックスエレメントをビットストリームに符号化するように構成された第1の符号化ユニットであり、シンタックスエレメントは、クロミナンス量子化パラメータ(QP, quantization parameter)オフセットを含む、第1の符号化ユニットと、スライスヘッダからのクロミナンスQPオフセット情報をビットストリームに符号化するように構成された第2の符号化ユニットであり、QPオフセット情報は、PPSシンタックス内のいずれかのPPSシンタックスエレメントから独立して取得される、第2の符号化ユニットと、ビットストリームを提供するように構成された提供ユニットとを含むエンコーダを更に提供する。 The present disclosure is a first encoding unit configured to encode syntax elements from a slice header and PPS syntax into a bitstream, the syntax elements being quantization parameter (QP) ) offset, and a second encoding unit configured to encode chrominance QP offset information from the slice header into the bitstream, the QP offset information being in the PPS syntax and a providing unit configured to provide a bitstream independently obtained from any PPS syntax element in the encoder.

上記のエンコーダにおいて、PPSシンタックスから取得された少なくとも1つのクロミナンスQPオフセットは、pps_cb_qp_offset、pps_cr_qp_offset、pps_joint_cbcr_qp_offset及びcu_chroma_qp_offset_enabled_flagを含んでもよい。 In the above encoder, the at least one chrominance QP offset obtained from the PPS syntax may include pps_cb_qp_offset, pps_cr_qp_offset, pps_joint_cbcr_qp_offset and cu_chroma_qp_offset_enabled_flag.

上記のエンコーダにおいて、cu_chroma_qp_offset_enabled_flagの値が1である場合、PPSシンタックスから取得された少なくとも1つのクロミナンスQPオフセットは、cu_chroma_qp_offset_subdiv、chroma_qp_offset_list_len_minus1、cb_qp_offset_list[i]、cr_qp_offset_list[i]及びjoint_cbcr_qp_offset_list[i]を更に含んでもよく、

Figure 0007328446000018
であり、iは整数である。 In the above encoder, if the value of cu_chroma_qp_offset_enabled_flag is 1, at least one chrominance QP offset obtained from the PPS syntax is cu_chroma_qp_offset_subdiv, chroma_qp_offset_list_len_minus1, cb_qp_offset_list[i], cr_qp_offset_list[i] and joint_cbcr_qp_offset_list[i ] But it's okay,
Figure 0007328446000018
and i is an integer.

上記のエンコーダにおいて、スライスヘッダシンタックスから取得されたクロミナンスQPオフセット情報は、slice_cb_qp_offset及びslice_cr_qp_offsetを含んでもよい。 In the above encoder, the chrominance QP offset information obtained from the slice header syntax may include slice_cb_qp_offset and slice_cr_qp_offset.

上記のエンコーダにおいて、ビットストリームに含まれるsps_joint_cbcr_enabled_flagの値が1である場合、スライスヘッダシンタックスから取得されたクロミナンスQPオフセット情報は、slice_joint_cbcr_qp_offsetを更に含んでもよい。 In the above encoder, if the value of sps_joint_cbcr_enabled_flag included in the bitstream is 1, the chrominance QP offset information obtained from the slice header syntax may further include slice_joint_cbcr_qp_offset.

上記のエンコーダにおいて、PPSシンタックスは、以下の構造を含んでもよい。

Figure 0007328446000019
In the encoder above, the PPS syntax may include the following structure.
Figure 0007328446000019

上記のエンコーダにおいて、スライスヘッダシンタックスは、以下の構造を含んでもよい。

Figure 0007328446000020
In the above encoder, the slice header syntax may include the following structure.
Figure 0007328446000020

上記のエンコーダにおいて、フラグpps_slice_chroma_qp_offsets_present_flagは、PPSシンタックスにおいて省略されてもよく、或いは、
スライスヘッダ及びPPSシンタックスは、常に少なくとも1つのクロミナンスQPオフセットに関連するエレメントを含んでもよい。
In the encoder above, the flag pps_slice_chroma_qp_offsets_present_flag may be omitted in the PPS syntax, or
Slice headers and PPS syntax may always contain at least one chrominance QP offset related element.

1つ以上の実施形態の詳細は、添付の図面及び以下の詳細な説明に記載されている。他の特徴、目的及び利点は、詳細な説明、図面及び特許請求の範囲から明らかになる。 The details of one or more embodiments are set forth in the accompanying drawings and the detailed description below. Other features, objects, and advantages will become apparent from the detailed description, drawings, and claims.

以下に、本発明の実施形態について、添付の図及び図面を参照してより詳細に説明する。
本発明の実施形態を実現するように構成されたビデオコーディングシステムの例を示すブロック図である。 本発明の実施形態を実現するように構成されたビデオコーディングシステムの他の例を示すブロック図である。 本発明の実施形態を実現するように構成されたビデオエンコーダの例を示すブロック図である。 本発明の実施形態を実現するように構成されたビデオデコーダの例示的な構造を示すブロック図である。 符号化装置又は復号装置の例を示すブロック図である。 符号化装置又は復号装置の他の例を示すブロック図である。 コンテンツ配信サービスを実現するコンテンツ供給システム3100の例示的な構造を示すブロック図である。 端末デバイスの例の構造を示すブロック図である。 本開示の実施形態による、ピクチャの現在ブロックの逆量子化のための方法であり、デコーダにより実行される方法のフローチャートを示す。 本開示の更なる実施形態による、ピクチャの現在ブロックの逆量子化のための方法であり、デコーダにより実行される方法のフローチャートを示す。 本開示の実施形態による、ピクチャの現在ブロックの逆量子化のための方法であり、エンコーダにより実行される方法のフローチャートを示す。 本開示による、ピクチャの現在ブロックの逆量子化のための方法であり、エンコーダにより実行される方法のフローチャートを示す。 本開示の実施形態によるデコーダを示す。 本開示の他の実施形態によるデコーダを示す。 本開示の実施形態によるエンコーダを示す。 本開示の他の実施形態によるエンコーダを示す。
Embodiments of the invention are described in more detail below with reference to the accompanying figures and drawings.
1 is a block diagram illustrating an example of a video coding system configured to implement embodiments of the present invention; FIG. FIG. 3 is a block diagram illustrating another example of a video coding system configured to implement embodiments of the present invention; 1 is a block diagram illustrating an example of a video encoder arranged to implement embodiments of the invention; FIG. 1 is a block diagram showing an exemplary structure of a video decoder arranged to implement embodiments of the present invention; FIG. 1 is a block diagram illustrating an example of an encoding device or decoding device; FIG. FIG. 4 is a block diagram showing another example of an encoding device or a decoding device; 31 is a block diagram showing an exemplary structure of a content supply system 3100 that implements a content distribution service; FIG. 1 is a block diagram illustrating the structure of an example of a terminal device; FIG. Fig. 3 shows a flow chart of a method for inverse quantization of a current block of a picture, performed by a decoder, according to an embodiment of the present disclosure; Fig. 3 shows a flow chart of a method, performed by a decoder, for inverse quantization of a current block of a picture, according to a further embodiment of the present disclosure; 1 shows a flow chart of a method, performed by an encoder, for inverse quantization of a current block of a picture, according to an embodiment of the present disclosure; 1 shows a flow chart of a method for inverse quantization of a current block of a picture, performed by an encoder, according to the present disclosure; 2 shows a decoder according to an embodiment of the present disclosure; Fig. 3 shows a decoder according to another embodiment of the present disclosure; 1 illustrates an encoder according to an embodiment of the present disclosure; 4 illustrates an encoder according to another embodiment of the present disclosure;

以下では、同一の参照符号は、他に明示的に指定されていない場合、同一の或いは少なくとも機能的に等価な特徴を示す。 In the following, identical reference numerals indicate identical or at least functionally equivalent features, unless explicitly specified otherwise.

以下の説明では、本開示の一部を形成し、例示により本発明の実施形態の特定の態様又は本発明の実施形態が使用され得る特定の態様を示す、添付の図面に参照が行われる。本発明の実施形態は、他の態様で使用され、図面に示さない構造的又は論理的変更を含んでもよいことが理解される。したがって、以下の詳細な説明は、限定的な意味で考えられるべきではなく、本発明の範囲は、添付の特許請求の範囲により定義される。 In the following description, reference is made to the accompanying drawings which form a part of this disclosure and which show, by way of example, certain aspects of embodiments of the invention or in which embodiments of the invention may be employed. It is understood that embodiments of the invention may be used in other ways and may include structural or logical changes not shown in the drawings. Therefore, the following detailed description should not be taken in a limiting sense, and the scope of the invention is defined by the appended claims.

例えば、記載の方法に関連する開示はまた、方法を実行するように構成された対応するデバイス又はシステムにも当てはまってもよく、逆も同様であることが理解される。例えば、1つ又は複数の特定の方法のステップが記載される場合、対応するデバイスは、記載される1つ又は複数の方法のステップを実行するための1つ又は複数のユニット、例えば、機能ユニットを、このような1つ以上のユニットが明示的に記載されないか或いは図面に示されない場合でも含んでもよい(例えば、1つのユニットが1つ又は複数のステップを実行するか、或いは、複数のユニットが複数のステップのうち1つ以上をそれぞれ実行する)。他方、例えば、特定の装置が1つ又は複数のユニット、例えば、機能ユニットに基づいて記載される場合、対応する方法は、1つ又は複数のユニットの機能を実行するための1つのステップを、このような1つ又は複数のステップが明示的に記載されないか或いは図面に示されない場合でも含んでもよい(例えば、1つのステップが1つ又は複数のユニットの機能を実行するか、或いは、複数のステップが複数のユニットのうち1つ以上の機能をそれぞれ実行する)。さらに、ここに記載の様々な例示的な実施形態及び/又は態様の特徴は、特に断りのない限り、互いに結合されてもよいことが理解される。 For example, it is understood that disclosure relating to a described method may also apply to a corresponding device or system configured to perform the method, and vice versa. For example, where one or more particular method steps are recited, the corresponding device may be one or more units, e.g., functional units, for performing the one or more recited method steps. , even if one or more such units are not explicitly described or shown in the drawings (e.g., one unit performs one or more steps, or multiple units each perform one or more of multiple steps). On the other hand, for example, if a particular apparatus is described in terms of one or more units, e.g. Such one or more steps may be included even if not explicitly described or shown in the drawings (e.g., one step may perform the function of one or more units, or multiple steps each perform one or more functions of multiple units). Further, it is understood that features of various exemplary embodiments and/or aspects described herein may be combined with each other unless stated otherwise.

典型的には、ビデオコーディングは、ビデオ又はビデオシーケンスを形成するピクチャのシーケンスの処理を示す。「ピクチャ」という用語の代わりに、「フレーム」又は「画像」という用語がビデオコーディングの分野において同義語として使用されてもよい。ビデオコーディング(又は一般的にコーディング)は、ビデオ符号化及びビデオ復号の2つの部分を含む。ビデオ符号化は、ソース側で実行され、典型的には、(より効率的な記憶及び/又は送信のために)ビデオピクチャを表すために必要なデータの量を低減するように、(例えば、圧縮により)元のビデオピクチャを処理することを含む。ビデオ復号は、宛先側で実行され、典型的には、ビデオピクチャを再構成するために、エンコーダと比較して逆の処理を含む。ビデオピクチャ(又は一般的にピクチャ)の「コーディング」を参照する実施形態は、ビデオピクチャ又はそれぞれのビデオシーケンスの「符号化」又は「復号」に関連すると理解されるものとする。符号化部及び復号部の組み合わせはまた、コーデック(CODEC, Coding and Decoding)とも呼ばれる。 Video coding typically refers to the processing of a sequence of pictures to form a video or video sequence. Instead of the term "picture", the terms "frame" or "image" may be used synonymously in the field of video coding. Video coding (or coding in general) includes two parts: video encoding and video decoding. Video encoding is performed on the source side and is typically performed to reduce (for more efficient storage and/or transmission) the amount of data needed to represent a video picture (e.g. It involves processing the original video picture (by compression). Video decoding is performed at the destination side and typically involves the inverse process compared to the encoder to reconstruct the video picture. Embodiments that refer to "coding" of video pictures (or pictures in general) shall be understood to relate to "encoding" or "decoding" of video pictures or respective video sequences. The combination of encoder and decoder is also called codec (Coding and Decoding).

可逆ビデオコーディングの場合、元のビデオピクチャは再構成でき、すなわち、再構成ビデオピクチャは、元のビデオピクチャと同じ品質を有する(記憶又は送信の間の送信損失又は他のデータ損失がないと仮定する)。非可逆ビデオコーディングの場合、ビデオピクチャを表すデータの量を低減するために、例えば、量子化による更なる圧縮が実行され、これは、デコーダで完全には再構成できず、すなわち、再構成ビデオピクチャの品質は、元のビデオピクチャの品質と比較して低いか或いは悪い。 For lossless video coding, the original video picture can be reconstructed, i.e. the reconstructed video picture has the same quality as the original video picture (assuming no transmission loss or other data loss during storage or transmission). do). In the case of lossy video coding, further compression is performed, for example by quantization, to reduce the amount of data representing a video picture, which cannot be fully reconstructed at the decoder, i.e. reconstructed video The picture quality is low or bad compared to the quality of the original video picture.

いくつかのビデオコーディング標準は、「非可逆ハイブリッドビデオコーデック」のグループに属する(すなわち、サンプルドメインにおける空間及び時間予測と、変換ドメインにおける量子化を適用するための2D変換コーディングとを組み合わせる)。ビデオシーケンスの各ピクチャは、典型的には、重複しないブロックのセットにパーティションされ、コーディングは、典型的には、ブロックレベルで実行される。言い換えると、エンコーダにおいて、例えば、空間(イントラピクチャ)予測及び/又は時間(インターピクチャ)予測を使用して予測ブロックを生成し、現在ブロック(現在処理されている/処理されるべきブロック)から予測ブロックを減算して残差ブロックを取得し、残差ブロックを変換して変換ドメインにおいて残差ブロックを量子化して送信されるべきデータの量を低減すること(圧縮)により、ビデオは典型的にはブロック(ビデオブロック)レベルで処理され、すなわち、符号化される。一方、デコーダにおいて、エンコーダと比較して逆の処理が符号化又は圧縮されたブロックに適用されて、表現のために現在ブロックを再構成する。さらに、エンコーダは、デコーダ処理ループを複製し、それにより、双方は後続のブロックを処理するために、すなわち、コーディングするために、同一の予測(例えば、イントラ及びインター予測)及び/又は再構成を生成する。 Several video coding standards belong to the group of "lossy hybrid video codecs" (ie combine spatial and temporal prediction in the sample domain with 2D transform coding to apply quantization in the transform domain). Each picture of a video sequence is typically partitioned into a set of non-overlapping blocks and coding is typically performed at the block level. In other words, at the encoder, for example, spatial (intra-picture) prediction and/or temporal (inter-picture) prediction is used to generate the predictive block, predicting from the current block (currently being/to be processed) By subtracting blocks to obtain residual blocks, transforming the residual blocks, and quantizing the residual blocks in the transform domain to reduce the amount of data to be transmitted (compression), video is typically is processed, ie coded, at block (video block) level. Meanwhile, at the decoder, the inverse process is applied to the encoded or compressed block compared to the encoder to reconstruct the current block for representation. In addition, the encoder replicates the decoder processing loops so that both use the same prediction (e.g., intra and inter prediction) and/or reconstruction to process, i.e., code, subsequent blocks. Generate.

以下に、ビデオコーディングシステム10、ビデオエンコーダ20及びビデオデコーダ30の実施形態について図1~3に基づいて説明する。 Embodiments of the video coding system 10, the video encoder 20 and the video decoder 30 are described below with reference to FIGS. 1-3.

図1Aは、本願の技術を利用し得る例示的なコーディングシステム10、例えばビデオコーディングシステム10(又は略してコーディングシステム10)を示す概略ブロック図である。ビデオコーディングシステム10のビデオエンコーダ20(又は略してエンコーダ20)及びビデオデコーダ30(又は略してデコーダ30)は、本願に記載の様々な例による技術を実行するように構成され得るデバイスの例を表す。 FIG. 1A is a schematic block diagram illustrating an exemplary coding system 10, such as a video coding system 10 (or coding system 10 for short), that may utilize the techniques of the present application. Video encoder 20 (or encoder 20 for short) and video decoder 30 (or decoder 30 for short) of video coding system 10 represent example devices that may be configured to perform techniques according to various examples described herein. .

図1Aに示すように、コーディングシステム10は、符号化ピクチャデータ21を、例えば、符号化ピクチャデータ13を復号するための宛先デバイス14に提供するように構成されたソースデバイス12を含む。 As shown in FIG. 1A, coding system 10 includes source device 12 configured to provide encoded picture data 21 to, for example, destination device 14 for decoding encoded picture data 13 .

ソースデバイス12は、エンコーダ20を含み、さらに、すなわち任意選択で、ピクチャソース16と、プリプロセッサ(又は前処理ユニット)18、例えばピクチャプリプロセッサ18と、通信インタフェース又は通信ユニット22とを含んでもよい。 The source device 12 includes an encoder 20 and may also or optionally include a picture source 16 , a preprocessor (or preprocessing unit) 18 , eg a picture preprocessor 18 , and a communication interface or unit 22 .

ピクチャソース16は、いずれかの種類のピクチャキャプチャデバイス、例えば、現実世界のピクチャをキャプチャするためのカメラ、及び/又はいずれかの種類のピクチャ生成デバイス、例えば、コンピュータアニメーションピクチャを生成するためのコンピュータグラフィックスプロセッサ、又は現実世界のピクチャ、コンピュータにより生成されたピクチャ(例えば、スクリーンコンテンツ、仮想現実(VR, virtual reality)ピクチャ)及び/又はこれらのいずれかの組み合わせ(例えば、拡張現実(AR, augmented reality)ピクチャ)を取得及び/又は提供するためのいずれかの種類の他のデバイスでもよく或いはこれを含んでもよい。ピクチャソースは、上記のピクチャのうちいずれかを記憶するいずれかの種類のメモリ又はストレージでもよい。 Picture source 16 can be any kind of picture capture device, e.g., a camera for capturing real-world pictures, and/or any kind of picture generation device, e.g., a computer for generating computer animated pictures. graphics processor, or real-world pictures, computer-generated pictures (e.g., screen content, virtual reality (VR) pictures) and/or any combination thereof (e.g., augmented reality (AR) It may also be or include any other type of device for obtaining and/or providing reality (pictures). A picture source may be any kind of memory or storage that stores any of the above pictures.

プリプロセッサ18、及び前処理ユニット18により実行される処理と対照的に、ピクチャ又はピクチャデータ17はまた、未加工ピクチャ又は未加工ピクチャデータ17とも呼ばれてもよい。 Pictures or picture data 17 may also be referred to as raw pictures or raw picture data 17, in contrast to the processing performed by pre-processor 18 and pre-processing unit 18. FIG.

プリプロセッサ18は、(未加工)ピクチャデータ17を受信し、ピクチャデータ17に対して前処理を実行して、前処理されたピクチャ19又は前処理されたピクチャデータ19を取得するように構成される。プリプロセッサ18により実行される前処理は、例えば、トリミング、カラーフォーマット変換(例えば、RGBからYCbCrへ)、色補正又はノイズ除去を含んでもよい。前処理ユニット18は任意選択のコンポーネントでもよいことが理解できる。 The pre-processor 18 is configured to receive (raw) picture data 17 and perform pre-processing on the picture data 17 to obtain a pre-processed picture 19 or pre-processed picture data 19 . . Pre-processing performed by pre-processor 18 may include, for example, cropping, color format conversion (eg, RGB to YCbCr), color correction, or noise removal. It will be appreciated that preprocessing unit 18 may be an optional component.

ビデオエンコーダ20は、前処理されたピクチャデータ19を受信し、符号化ピクチャデータ21を提供するように構成される(更なる詳細については、例えば、図2に基づいて以下に説明する)。 Video encoder 20 is configured to receive preprocessed picture data 19 and to provide encoded picture data 21 (further details are described below, for example with reference to FIG. 2).

ソースデバイス12の通信インタフェース22は、符号化ピクチャデータ21を受信し、記憶又は直接の再構成のために、通信チャネル13上で符号化ピクチャデータ21(又はそのいずれかの更なる処理されたバージョン)を他のデバイス、例えば、宛先デバイス14又はいずれかの他のデバイスに送信するように構成されてもよい。 Communication interface 22 of source device 12 receives encoded picture data 21 and renders encoded picture data 21 (or any further processed version thereof) over communication channel 13 for storage or direct reconstruction. ) to another device, such as the destination device 14 or any other device.

宛先デバイス14は、デコーダ30(例えば、ビデオデコーダ30)を含み、さらに、すなわち任意選択で、通信インタフェース又は通信ユニット28と、ポストプロセッサ32(又は後処理ユニット32)と、ディスプレイデバイス34とを含んでもよい。 Destination device 14 includes decoder 30 (e.g., video decoder 30) and also, i.e., optionally, communication interface or communication unit 28, post-processor 32 (or post-processing unit 32), and display device 34. It's okay.

宛先デバイス14の通信インタフェース28は、例えば、ソースデバイス12から直接に或いはいずれかの他のソース、例えば、記憶デバイス、例えば、符号化ピクチャデータ記憶デバイスから、符号化ピクチャデータ21(又はそのいずれかの更なる処理されたバージョン)を受信し、符号化ピクチャデータ21をデコーダ30に提供するように構成される。 Communication interface 28 of destination device 14 receives encoded picture data 21 (or any ) and provide encoded picture data 21 to decoder 30 .

通信インタフェース22及び通信インタフェース28は、ソースデバイス12と宛先デバイス14との間の直接通信リンク、例えば、直接有線又は無線接続を介して、或いはいずれかの種類のネットワーク、例えば、有線若しくは無線ネットワーク又はこれらのいずれかの組み合わせ、又はいずれかの種類の私設及び公衆ネットワーク、又はこれらのいずれかの種類の組み合わせを介して、符号化ピクチャデータ21又は符号化データ13を送信又は受信するように構成されてもよい。 Communication interface 22 and communication interface 28 may be via a direct communication link, e.g., a direct wired or wireless connection, between source device 12 and destination device 14, or over any type of network, e.g., a wired or wireless network or configured to transmit or receive coded picture data 21 or coded data 13 via any combination thereof, or any kind of private and public network, or any kind of combination thereof; may

通信インタフェース22は、例えば、符号化ピクチャデータ21を適切なフォーマット、例えばパケットにパッケージ化し、及び/又は通信リンク又は通信ネットワーク上での送信のために、いずれかの種類の送信符号化又は処理を使用して符号化ピクチャデータを処理するように構成されてもよい。 Communication interface 22 may, for example, package encoded picture data 21 into a suitable format, such as packets, and/or perform any type of transmission encoding or processing for transmission over a communication link or network. may be configured to process encoded picture data using.

通信インタフェース22の相手方を形成する通信インタフェース28は、例えば、送信データを受信し、いずれかの種類の対応する送信復号若しくは処理及び/又はパッケージ解除を使用して、送信データを処理して、符号化ピクチャデータ21を取得するように構成されてもよい。 A communication interface 28, forming the counterpart to communication interface 22, for example, receives the transmitted data and processes the transmitted data using any kind of corresponding transmission decoding or processing and/or depackaging to encode the data. It may be configured to acquire the coded picture data 21. FIG.

通信インタフェース22及び通信インタフェース28の双方は、図1Aにおいてソースデバイス12から宛先デバイス14を指す通信チャネル13についての矢印により示されるような単方向通信インタフェースとして、或いは双方向通信インタフェースとして構成されてもよく、例えば、メッセージを送信及び受信するように、例えば、接続を設定して、通信リンク及び/又はデータ送信、例えば、符号化ピクチャデータ送信に関連するいずれかの他の情報を承認及び交換するように構成されてもよい。 Both communication interface 22 and communication interface 28 may be configured as a unidirectional communication interface, as indicated by the arrow for communication channel 13 pointing from source device 12 to destination device 14 in FIG. 1A, or as a bidirectional communication interface. often, e.g., establish connections, e.g., to send and receive messages, authorize and exchange communication links and/or any other information related to data transmissions, e.g., coded picture data transmissions It may be configured as

デコーダ30は、符号化ピクチャデータ21を受信し、復号ピクチャデータ31又は復号ピクチャ31を提供するように構成される(更なる詳細については、例えば、図3又は図5に基づいて以下に説明する)。 The decoder 30 is arranged to receive encoded picture data 21 and to provide decoded picture data 31 or decoded pictures 31 (further details are given below, for example with reference to FIG. 3 or FIG. 5). ).

宛先デバイス14のポストプロセッサ32は、復号ピクチャデータ31(再構成ピクチャデータとも呼ばれる)、例えば復号ピクチャ31を後処理して、後処理されたピクチャデータ33、例えば、後処理されたピクチャ33を取得するように構成される。後処理ユニット32により実行される後処理は、例えば、カラーフォーマット変換(例えば、YCbCrからRGBへ)、色補正、トリミング若しくは再サンプリング、又は例えば復号ピクチャデータ31を、例えば、ディスプレイデバイス34による表示のために準備するためのいずれかの他の処理を含んでもよい。 Post-processor 32 of destination device 14 post-processes decoded picture data 31 (also called reconstructed picture data), e.g. decoded picture 31, to obtain post-processed picture data 33, e.g. post-processed picture 33. configured to Post-processing performed by post-processing unit 32 may include, for example, color format conversion (eg, YCbCr to RGB), color correction, cropping or resampling, or processing of decoded picture data 31, for example, for display by display device 34, for example. may include any other processing to prepare for.

宛先デバイス14のディスプレイデバイス34は、後処理されたピクチャデータ33を受信して、例えば、ユーザ又はビューアにピクチャを表示するように構成される。ディスプレイデバイス34は、再構成ピクチャを提示するいずれかの種類のディスプレイ、例えば、一体型若しくは外部ディスプレイ又はモニタでもよく或いはこれを含んでもよい。ディスプレイは、例えば、液晶ディスプレイ(LCD, liquid crystal display)、有機発光ダイオード(OLED, organic light emitting diode)ディスプレイ、プラズマディスプレイ、プロジェクタ、マイクロLEDディスプレイ、シリコン上液晶(LCoS, liquid crystal on silicon)、デジタル光プロセッサ(DLP, digital light processor)又はいずれかの種類の他のディスプレイでもよく或いはこれを含んでもよい。 A display device 34 of the destination device 14 is configured to receive the post-processed picture data 33 and display the picture to a user or viewer, for example. Display device 34 may be or include any type of display for presenting reconstructed pictures, such as an integrated or external display or monitor. Displays include, for example, liquid crystal displays (LCDs), organic light emitting diode (OLED) displays, plasma displays, projectors, micro LED displays, liquid crystal on silicon (LCoS), digital It may be or include a light processor (DLP, digital light processor) or any kind of other display.

図1Aはソースデバイス12及び宛先デバイス14を別個のデバイスとして示すが、デバイスの実施形態はまた、双方又は双方の機能、ソースデバイス12又は対応する機能及び宛先デバイス14又は対応する機能を含んでもよい。このような実施形態では、ソースデバイス12又は対応する機能及び宛先デバイス14又は対応する機能は、同じハードウェア及び/又はソフトウェアを使用して或いは別個のハードウェア及び/又はソフトウェア又はこれらのいずれかの組み合わせにより実現されてもよい。 Although FIG. 1A shows source device 12 and destination device 14 as separate devices, device embodiments may also include functionality of both or both, source device 12 or corresponding functionality and destination device 14 or corresponding functionality. . In such embodiments, source device 12 or corresponding functionality and destination device 14 or corresponding functionality may be implemented using the same hardware and/or software or separate hardware and/or software or any of these. It may be realized by a combination.

説明に基づいて当業者に明らかなように、図1Aに示すようなソースデバイス12及び/又は宛先デバイス14内の異なるユニット又は機能の存在及び(正確な)分割は、実際のデバイス及び用途に依存して変化してもよい。 As will be apparent to those skilled in the art based on the description, the presence and (exact) division of different units or functions within source device 12 and/or destination device 14 as shown in FIG. 1A depends on the actual device and application. may be changed by

エンコーダ20(例えば、ビデオエンコーダ20)若しくはデコーダ30(例えば、ビデオデコーダ30)又はエンコーダ20及びデコーダ30の双方は、1つ以上のマイクロプロセッサ、デジタルシグナルプロセッサ(DSP, digital signal processor)、特定用途向け集積回路(ASIC, application-specific integrated circuit)、フィールドプログラマブルゲートアレイ(FPGA, field-programmable gate array)、ディスクリートロジック、ハードウェア、専用ビデオコーディング又はこれらのいずれかの組み合わせのような、図1Bに示すような処理回路を介して実現されてもよい。エンコーダ20は、図2のエンコーダ20及び/又はここに記載のいずれかの他のエンコーダシステム又はサブシステムに関して説明するように、様々なモジュールを具体化するように処理回路46を介して実現されてもよい。デコーダ30は、図3のデコーダ30及び/又はここに記載のいずれかの他のデコーダシステム又はサブシステムに関して説明するように、様々なモジュールを具体化するように処理回路46を介して実現されてもよい。処理回路は、以下に説明するように、様々な動作を実行するように構成されてもよい。図5に示すように、技術が部分的にソフトウェアで実現される場合、デバイスは、適切な非一時的なコンピュータ読み取り可能記憶媒体内にソフトウェアのための命令を記憶してもよく、本開示の技術を実行するために1つ以上のプロセッサを使用してハードウェアで命令を実行してもよい。ビデオエンコーダ20及びビデオデコーダ30のいずれかは、例えば、図1Bに示すように、単一のデバイス内の結合されたエンコーダ/デコーダ(CODEC, encoder/decoder)の部分として統合されてもよい。 Encoder 20 (e.g., video encoder 20) or decoder 30 (e.g., video decoder 30) or both encoder 20 and decoder 30 may include one or more microprocessors, digital signal processors (DSPs), application-specific 1B, such as an application-specific integrated circuit (ASIC), field-programmable gate array (FPGA), discrete logic, hardware, dedicated video coding, or any combination thereof. It may be realized via such a processing circuit. Encoder 20 is implemented via processing circuitry 46 to embody various modules as described with respect to encoder 20 of FIG. 2 and/or any other encoder system or subsystem described herein. good too. Decoder 30 is implemented via processing circuitry 46 to embody various modules as described with respect to decoder 30 of FIG. 3 and/or any other decoder system or subsystem described herein. good too. The processing circuitry may be configured to perform various operations, as described below. If the technology is implemented in part in software, as shown in FIG. 5, the device may store instructions for the software in a suitable non-transitory computer-readable storage medium, and the Instructions may be executed in hardware using one or more processors to implement the techniques. Either video encoder 20 or video decoder 30 may be integrated as part of a combined encoder/decoder (CODEC) within a single device, for example, as shown in FIG. 1B.

ソースデバイス12及び宛先デバイス14は、いずれかの種類のハンドヘルド又は固定デバイス、例えば、ノートブック又はラップトップコンピュータ、携帯電話、スマートフォン、タブレット又はタブレットコンピュータ、カメラ、デスクトップコンピュータ、セットトップボックス、テレビ、ディスプレイデバイス、デジタルメディアプレイヤ、ビデオゲームコンソール、ビデオストリーミングデバイス(コンテンツサービスサーバ又はコンテンツ配信サーバ等)、放送受信機デバイス、放送送信機デバイス等を含む、広範なデバイスのうちいずれかを含んでもよく、いずれかの種類のオペレーティングシステムを使用してもよく或いは使用しなくてもよい。いくつかの場合、ソースデバイス12及び宛先デバイス14は、無線通信のために装備されてもよい。したがって、ソースデバイス12及び宛先デバイス14は無線通信デバイスでもよい。 Source device 12 and destination device 14 can be any kind of handheld or stationary device, such as notebook or laptop computers, mobile phones, smart phones, tablet or tablet computers, cameras, desktop computers, set-top boxes, televisions, displays. devices, digital media players, video game consoles, video streaming devices (such as content service servers or content distribution servers), broadcast receiver devices, broadcast transmitter devices, etc.; Either type of operating system may or may not be used. In some cases, source device 12 and destination device 14 may be equipped for wireless communication. Accordingly, source device 12 and destination device 14 may be wireless communication devices.

いくつかの場合、図1Aに示すビデオコーディングシステム10は単に例であり、本願の技術は、必ずしも符号化デバイスと復号デバイスとの間にいずれかのデータ通信を含むとは限らないビデオコーディング設定(例えば、ビデオ符号化又はビデオ復号)に適用してもよい。他の例では、データはローカルメモリから取り出される、ネットワーク上でストリーミングされる、等である。ビデオ符号化デバイスは、データを符号化してメモリに記憶してもよく、及び/又はビデオ復号デバイスはデータをメモリから取り出して復号してもよい。いくつかの例では、符号化及び復号は、互いに通信しないが単にデータをメモリに符号化し及び/又はメモリからデータを取り出して復号するデバイスにより実行される。 In some cases, the video coding system 10 shown in FIG. 1A is merely an example, and the techniques herein may be used in a video coding setup that does not necessarily involve any data communication between encoding and decoding devices. For example, it may be applied to video encoding or video decoding). In other examples, data is retrieved from local memory, streamed over a network, and the like. A video encoding device may encode and store data in memory, and/or a video decoding device may retrieve data from memory and decode it. In some examples, encoding and decoding are performed by devices that do not communicate with each other, but simply encode data into memory and/or retrieve data from memory and decode it.

説明の便宜上、本発明の実施形態は、ここでは、例えば高効率ビデオコーディング(HEVC, High-Efficiency Video Coding)又はバーサタイルビデオコーディング(VVC, Versatile Video coding)のリファレンスソフトウェア、ITU-Tビデオコーディング専門家委員会(VCEG, Video Coding Experts Group)及びISO/IEC動画専門家委員会(MPEG, Motion Picture Experts Group)のビデオコーディングに関する共同作業部会(JCT-VC, Joint Collaboration Team on Video Coding)により開発された次世代ビデオコーディング標準を参照することにより記載される。当業者は、本発明の実施形態がHEVC又はVVCに限定されないことを理解する。 For convenience of explanation, embodiments of the present invention are herein referred to as reference software, for example High-Efficiency Video Coding (HEVC) or Versatile Video Coding (VVC), ITU-T video coding experts Developed by the VCEG (Video Coding Experts Group) and the Joint Collaboration Team on Video Coding (JCT-VC) of the ISO/IEC Motion Picture Experts Group (MPEG) It is described with reference to next generation video coding standards. Those skilled in the art will appreciate that embodiments of the present invention are not limited to HEVC or VVC.

エンコーダ及び符号化方法
図2は、本願の技術を実現するように構成された例示的なビデオエンコーダ20の概略ブロック図を示す。図2の例では、ビデオエンコーダ20は、入力201(又は入力インタフェース201)と、残差計算ユニット204と、変換処理ユニット206と、量子化ユニット208と、逆量子化ユニット210と、逆変換処理ユニット212と、再構成ユニット214と、ループフィルタユニット220と、復号ピクチャバッファ(DPB, decoded picture buffer)230と、モード選択ユニット260と、エントロピー符号化ユニット270と、出力272(又は出力インタフェース272)とを含む。モード選択ユニット260は、インター予測ユニット244と、イントラ予測処理ユニット254と、パーティションユニット262とを含んでもよい。インター予測ユニット244は、動き推定ユニット及び動き補償ユニット(図示せず)を含んでもよい。図2に示すようなビデオエンコーダ20はまた、ハイブリッドビデオエンコーダ又はハイブリッドビデオコーデックによるビデオエンコーダとも呼ばれてもよい。
Encoders and Encoding Methods FIG. 2 shows a schematic block diagram of an exemplary video encoder 20 configured to implement the techniques of the present application. In the example of FIG. 2, video encoder 20 includes input 201 (or input interface 201), residual computation unit 204, transform processing unit 206, quantization unit 208, inverse quantization unit 210, and inverse transform processing. unit 212, reconstruction unit 214, loop filter unit 220, decoded picture buffer (DPB) 230, mode selection unit 260, entropy coding unit 270, output 272 (or output interface 272). including. Mode selection unit 260 may include inter prediction unit 244 , intra prediction processing unit 254 , and partition unit 262 . Inter prediction unit 244 may include a motion estimation unit and a motion compensation unit (not shown). A video encoder 20 as shown in FIG. 2 may also be referred to as a hybrid video encoder or a video encoder with a hybrid video codec.

残差計算ユニット204、変換処理ユニット206、量子化ユニット208、モード選択ユニット260は、エンコーダ20の順方向信号経路を形成するものと呼ばれてもよい。一方で、逆量子化ユニット210、逆変換処理ユニット212、再構成ユニット214、バッファ216、ループフィルタ220、復号ピクチャバッファ(DPB, decoded picture buffer)230、インター予測ユニット244及びイントラ予測ユニット254は、ビデオエンコーダ20の逆方向信号経路を形成するものと呼ばれてもよく、ビデオエンコーダ20の逆方向信号経路はデコーダの信号経路に対応する(図3におけるデコーダ30を参照する)。逆量子化ユニット210、逆変換処理ユニット212、再構成ユニット214、ループフィルタ220、復号ピクチャバッファ(DPB, decoded picture buffer)230、インター予測ユニット244及びイントラ予測ユニット254はまた、ビデオエンコーダ20の「内蔵デコーダ」を形成するものとも呼ばれる。 Residual calculation unit 204 , transform processing unit 206 , quantization unit 208 , and mode selection unit 260 may be referred to as forming the forward signal path of encoder 20 . On the other hand, inverse quantization unit 210, inverse transform processing unit 212, reconstruction unit 214, buffer 216, loop filter 220, decoded picture buffer (DPB) 230, inter prediction unit 244 and intra prediction unit 254: The reverse signal path of video encoder 20, which may also be referred to as forming the reverse signal path of video encoder 20, corresponds to the signal path of the decoder (see decoder 30 in FIG. 3). Inverse quantization unit 210, inverse transform processing unit 212, reconstruction unit 214, loop filter 220, decoded picture buffer (DPB) 230, inter prediction unit 244, and intra prediction unit 254 also provide Also referred to as forming a "built-in decoder".

ピクチャ及びピクチャパーティション(ピクチャ及びブロック)
エンコーダ20は、例えば、入力201を介して、ピクチャ17(又はピクチャデータ17)、例えば、ビデオ又はビデオシーケンスを形成するピクチャのシーケンスのピクチャを受信するように構成されてもよい。受信したピクチャ又はピクチャデータはまた、前処理ピクチャ19(前処理ピクチャデータ19)でもよい。簡潔にするために、以下の説明はピクチャ17を参照する。ピクチャ17はまた、(特に、ビデオコーディングにおいて、現在ピクチャを他のピクチャ、例えば、同じビデオシーケンス、すなわち、現在ピクチャも含むビデオシーケンスの前に符号化及び/又は復号されたピクチャと区別するために)現在ピクチャ又はコーディングされるべきピクチャとも呼ばれてもよい。
Pictures and picture partitions (pictures and blocks)
The encoder 20 may for example be arranged to receive, via input 201, pictures 17 (or picture data 17), for example pictures of a sequence of pictures forming a video or a video sequence. The received picture or picture data may also be a preprocessed picture 19 (preprocessed picture data 19). For brevity, the following description refers to picture 17. Picture 17 is also used (particularly in video coding to distinguish the current picture from other pictures, e.g. pictures encoded and/or decoded before the same video sequence, i.e. a video sequence that also contains the current picture. ) may also be called the current picture or the picture to be coded.

(デジタル)ピクチャは、強度値を有するサンプルの2次元配列又は行列であるか或いはそれとして考えられることができる。配列内のサンプルはまた、ピクセル(ピクチャエレメントの短縮形)又はペル(pel)とも呼ばれてもよい。配列又はピクチャの水平及び垂直方向(又は軸)におけるサンプルの数は、ピクチャのサイズ及び/又は解像度を定義する。色の表現のために、典型的には3つの色成分が使用され、すなわち、ピクチャは、3つのサンプル配列として表されてもよく或いはこれらを含んでもよい。RBGフォーマット又は色空間では、ピクチャは、対応する赤、緑及び青のサンプル配列を含む。しかし、ビデオコーディングでは、各ピクセルは、典型的には、ルミナンス及びクロミナンスフォーマット又は色空間、例えば、Y(場合によっては代わりにLも使用される)により示されるルミナンス成分とCb及びCrにより示される2つのクロミナンス成分とを含むYCbCrで表される。ルミナンス(又は略してルマ)成分Yは、明るさ又はグレーレベル強度(例えば、グレースケールピクチャにおけるもの等)を表す。一方で、2つのクロミナンス(又は略してクロマ)成分Cb及びCrは、色度又は色情報成分を表す。したがって、YCbCrフォーマットのピクチャは、ルミナンスサンプル値(Y)のルミナンスサンプル配列と、クロミナンス値(Cb及びCr)の2つのクロミナンスサンプル配列とを含む。RGBフォーマットのピクチャは、YCbCrフォーマットに転換又は変換されてもよく、逆も同様であり、プロセスはまた、色変換又は転換としても知られる。ピクチャがモノクロである場合、ピクチャは、ルミナンスサンプル配列のみを含んでもよい。したがって、ピクチャは、例えば、モノクロフォーマットのルマサンプルの配列、又は4:2:0、4:2:2及び4:4:4カラーフォーマットのルマサンプルの配列及びクロマサンプルの2つの対応する配列でもよい。 A (digital) picture is or can be thought of as a two-dimensional array or matrix of samples with intensity values. A sample in the array may also be called a pixel (short for picture element) or a pel. The number of samples in the horizontal and vertical directions (or axes) of an array or picture defines the size and/or resolution of the picture. For color representation typically three color components are used, ie a picture may be represented as or contain three sample arrays. In the RBG format or color space, a picture contains corresponding red, green and blue sample arrays. However, in video coding each pixel is typically represented by a luminance and chrominance format or color space, e.g. YCbCr containing two chrominance components. The luminance (or luma for short) component Y represents the brightness or gray level intensity (eg, such as in a grayscale picture). On the other hand, the two chrominance (or chroma for short) components Cb and Cr represent chromaticity or color information components. Thus, a picture in YCbCr format includes a luminance sample array of luminance sample values (Y) and two chrominance sample arrays of chrominance values (Cb and Cr). Pictures in RGB format may be converted or converted to YCbCr format and vice versa, a process also known as color conversion or conversion. If the picture is monochrome, the picture may contain only the luminance sample array. Thus, a picture can be, for example, an array of luma samples in monochrome format, or an array of luma samples and two corresponding arrays of chroma samples in 4:2:0, 4:2:2 and 4:4:4 color formats. good.

ビデオエンコーダ20の実施形態は、ピクチャ17を複数の(典型的には重複しない)ピクチャブロック203にパーティションするように構成されたピクチャパーティションユニット(図2に図示せず)を含んでもよい。これらのブロックはまた、ルートブロック、マクロブロック(H.264/AVC)又はコーディングツリーブロック(CTB, coding tree block)又はコーディングツリーユニット(CTU, coding tree unit)(H.265/HEVC及びVVC)とも呼ばれてもよい。ピクチャパーティションユニットは、ビデオシーケンスの全てのピクチャ、及びブロックサイズを定義する対応するグリッドに同じブロックサイズを使用するように、或いは、ピクチャ又はピクチャのサブセット若しくはグループの間でブロックサイズを変更し、各ピクチャを対応するブロックにパーティションするように構成されてもよい。 Embodiments of video encoder 20 may include a picture partition unit (not shown in FIG. 2) configured to partition picture 17 into multiple (typically non-overlapping) picture blocks 203 . These blocks are also root blocks, macroblocks (H.264/AVC) or coding tree blocks (CTB) or coding tree units (CTU) (H.265/HEVC and VVC). may be called. A picture partition unit may vary block sizes between pictures or subsets or groups of pictures to use the same block size for all pictures of a video sequence and corresponding grids that define block sizes, and each It may be arranged to partition the picture into corresponding blocks.

更なる実施形態では、ビデオエンコーダは、ピクチャ17のブロック203、例えば、ピクチャ17を形成する1つ、いくつか又は全てのブロックを直接受信するように構成されてもよい。ピクチャブロック203はまた、現在ピクチャブロック又はコーディングされるべきピクチャブロックとも呼ばれてもよい。 In a further embodiment, the video encoder may be configured to directly receive block 203 of picture 17, eg, one, some or all of the blocks forming picture 17. FIG. Picture block 203 may also be referred to as a current picture block or a picture block to be coded.

ピクチャ17と同様に、ピクチャブロック203もまた、強度値(サンプル値)を有するサンプルの2次元配列又は行列であるか或いはそれとして考えられることができるが、ピクチャ17よりも小さい次元である。言い換えると、ブロック203は、例えば、1つのサンプル配列(例えば、モノクロピクチャ17の場合のルマ配列、又はカラーピクチャの場合のルマ若しくはクロマ配列)若しくは3つのサンプル配列(例えば、カラーピクチャ17の場合のルマ及び2つのクロマ配列)、又は適用されるカラーフォーマットに依存していずれかの他の数及び/又は種類の配列を含んでもよい。ブロック203の水平及び垂直方向(又は軸)におけるサンプルの数は、ブロック203のサイズを定義する。したがって、ブロックは、例えば、サンプルのM×N(M列×N行)配列、又は変換係数のM×N配列でもよい。 Similar to picture 17, picture block 203 is also or can be thought of as a two-dimensional array or matrix of samples with intensity values (sample values), but of smaller dimensions than picture 17. FIG. In other words, block 203 may, for example, store one sample array (eg, luma array for monochrome picture 17, or luma or chroma array for color picture) or three sample arrays (eg, luma array for color picture 17). luma and two chroma arrays), or any other number and/or type of arrays depending on the color format applied. The number of samples in the horizontal and vertical directions (or axes) of block 203 define the size of block 203 . Thus, a block may be, for example, an M×N (M columns×N rows) array of samples, or an M×N array of transform coefficients.

図2に示すようなビデオエンコーダ20の実施形態は、ブロック毎にピクチャ17を符号化するように構成されてもよく、例えば、符号化及び予測がブロック203毎に実行される。 An embodiment of video encoder 20 as shown in FIG. 2 may be configured to encode picture 17 block by block, eg, encoding and prediction are performed block 203 .

図2に示すようなビデオエンコーダ20の実施形態は、スライス(ビデオスライスとも呼ばれる)を使用することによりピクチャをパーティション及び/又は符号化するように更に構成されてもよく、ピクチャは、(典型的には重複しない)1つ以上のスライスにパーティションされてもよく或いはこれを使用して符号化されてもよく、各スライスは、1つ以上のブロック(例えば、CTU)又は1つ以上のブロックのグループ(例えば、タイル(H.265/HEVC及びVVC)又はブリック(VVC))を含んでもよい。 An embodiment of video encoder 20 as shown in FIG. 2 may be further configured to partition and/or encode pictures by using slices (also called video slices), where pictures are (typically may be partitioned into or encoded using one or more slices, each slice being one or more blocks (e.g., CTUs) or one or more blocks of Groups (eg, tiles (H.265/HEVC and VVC) or bricks (VVC)) may be included.

図2に示すようなビデオエンコーダ20の実施形態は、スライス/タイルグループ(ビデオタイルグループとも呼ばれる)及び/又はタイル(ビデオタイルとも呼ばれる)を使用することによりピクチャをパーティション及び/又は符号化するように更に構成されてもよく、ピクチャは、(典型的には重複しない)1つ以上のスライス/タイルグループにパーティションされてもよく或いはこれを使用して符号化されてもよく、各スライス/タイルグループは、例えば、1つ以上のブロック(例えば、CTU)又は1つ以上のタイルを含んでもよく、各タイルは、例えば、長方形形状でもよく、1つ以上のブロック(例えば、CTU)、例えば完全な或いは部分的なブロックを含んでもよい。 An embodiment of video encoder 20, such as that shown in FIG. 2, may partition and/or encode pictures by using slice/tile groups (also called video tile groups) and/or tiles (also called video tiles). , and a picture may be partitioned into or encoded using one or more (typically non-overlapping) slice/tile groups, each slice/tile A group may, for example, contain one or more blocks (eg, CTU) or one or more tiles, each tile may, for example, be rectangular in shape, and one or more blocks (eg, CTU), such as complete blocks. may contain full or partial blocks.

残差計算
残差計算ユニット204は、ピクチャブロック203及び予測ブロック265(予測ブロック265に関する更なる詳細は以下に提供される)に基づいて、例えば、サンプル毎に(ピクセル毎に)ピクチャブロック203のサンプル値から予測ブロック265のサンプル値を減算して、サンプルドメインにおける残差ブロック205を取得することにより、残差ブロック205を計算するように構成されてもよい。
Residual Computation Residual computation unit 204 computes, e.g. It may be configured to compute residual block 205 by subtracting the sample values of prediction block 265 from the sample values to obtain residual block 205 in the sample domain.

変換
変換処理ユニット206は、残差ブロック205のサンプル値に対して変換、例えば、離散コサイン変換(DCT, discrete cosine transform)又は離散サイン変換(DST, discrete sine transform)を適用して、変換ドメインにおける変換係数207を取得するように構成されてもよい。変換係数207はまた、変換残差係数とも呼ばれ、変換ドメインにおける残差ブロック205を表してもよい。
Transform Transform processing unit 206 applies a transform, such as a discrete cosine transform (DCT) or a discrete sine transform (DST), to the sample values of residual block 205 to obtain It may be configured to obtain transform coefficients 207 . Transform coefficients 207 may also be referred to as transform residual coefficients and represent residual block 205 in the transform domain.

変換処理ユニット206は、H.265/HEVCについて指定された変換のようなDCT/DSTの整数近似を適用するように構成されてもよい。直交DCT変換と比較して、このような整数近似は、典型的には、特定のファクタによりスケーリングされる。順変換及び逆変換により処理される残差ブロックのノルムを維持するために、更なるスケーリングファクタが変換プロセスの一部として適用される。スケーリングファクタは、典型的には、スケーリングファクタがシフト演算のために2の冪乗であること、変換係数のビット深度、精度と実現コストとの間のトレードオフ等のような特定の制約に基づいて選択される。特定のスケーリングファクタは、例えば、逆変換処理ユニット212による逆変換(及び例えば、ビデオデコーダ30における逆変換処理ユニット312による対応する逆変換)について指定され、例えば、エンコーダ20における変換処理ユニット206による順変換についての対応するスケーリングファクタが相応して指定されてもよい。 Transform processing unit 206 may be configured to apply an integer approximation of DCT/DST, such as the transform specified for H.265/HEVC. Compared to orthogonal DCT transforms, such integer approximations are typically scaled by a certain factor. An additional scaling factor is applied as part of the transform process to maintain the norm of the residual blocks processed by the forward and inverse transforms. The scaling factor is typically based on certain constraints such as that the scaling factor is a power of two for shift operations, the bit depth of the transform coefficients, the trade-off between precision and implementation cost, etc. selected by A particular scaling factor is specified, for example, for an inverse transform by inverse transform processing unit 212 (and a corresponding inverse transform by, for example, inverse transform processing unit 312 in video decoder 30), and for example, for an inverse transform by transform processing unit 206 in encoder 20. A corresponding scaling factor for the transform may be specified accordingly.

ビデオエンコーダ20の実施形態(それぞれ、変換処理ユニット206)は、例えば、直接或いはエントロピー符号化ユニット270を介して符号化又は圧縮される、変換パラメータ、例えば、変換又は複数の変換のタイプを出力するように構成されてもよく、それにより、例えば、ビデオデコーダ30は、復号のために変換パラメータを受信して使用してもよい。 An embodiment of video encoder 20 (respectively, transform processing unit 206) outputs transform parameters, eg, a transform or types of transforms, which are encoded or compressed, eg, directly or via entropy encoding unit 270. so that, for example, video decoder 30 may receive and use transform parameters for decoding.

量子化
量子化ユニット208は、例えば、スカラー量子化又はベクトル量子化を適用することにより、変換係数207を量子化して、量子化された係数209を取得するように構成されてもよい。量子化された係数209はまた、量子化された変換係数209又は量子化された残差係数209とも呼ばれてもよい。
Quantization Quantization unit 208 may be configured to quantize transform coefficients 207 to obtain quantized coefficients 209, for example, by applying scalar quantization or vector quantization. Quantized coefficients 209 may also be referred to as quantized transform coefficients 209 or quantized residual coefficients 209 .

量子化プロセスは、変換係数207の一部又は全部に関連するビット深度を低減してもよい。例えば、nビットの変換係数は、量子化の間にmビットの変換係数に切り捨てられてもよく、nはmよりも大きい。量子化の程度は、量子化パラメータ(QP, quantization parameter)を調整することにより変更されてもよい。例えば、スカラー量子化では、より精細な或いはより粗い量子化を達成するために異なるスケーリングが適用されてもよい。より小さい量子化ステップサイズは、より精細な量子化に対応する。一方で、より大きい量子化ステップサイズは、より粗い量子化に対応する。適用可能な量子化ステップは、量子化パラメータ(QP, quantization parameter)により示されてもよい。量子化パラメータは、例えば、適用可能な量子化ステップサイズの所定のセットへのインデックスでもよい。例えば、小さい量子化パラメータは、精細な量子化(小さい量子化ステップサイズ)に対応してもよく、大きい量子化パラメータは、粗い量子化(大きい量子化ステップサイズ)に対応してもよく、逆も同様である。量子化は、量子化ステップサイズによる除算を含んでもよく、例えば、逆量子化ユニット210による対応するもの及び/又は逆の反量子化は、量子化ステップサイズによる乗算を含んでもよい。いくつかの標準、例えば、HEVCによる実施形態は、量子化ステップサイズを決定するために量子化パラメータを使用するように構成されてもよい。一般的に、量子化ステップサイズは、除算を含む式の固定点近似を使用して、量子化パラメータに基づいて計算されてもよい。量子化ステップサイズ及び量子化パラメータについての式の固定点近似において使用されるスケーリングのため、変更され得る残差ブロックのノルムを復元するために、量子化及び反量子化のための更なるスケーリングファクタが導入されてもよい。1つの例示的な実現方式では、逆変換及び反量子化のスケーリングは組み合わされてもよい。代替として、カスタマイズされた量子化テーブルが使用され、例えば、ビットストリームでエンコーダからデコーダにシグナリングされてもよい。量子化は非可逆動作であり、量子化ステップサイズの増加に伴い損失が増加する。 The quantization process may reduce the bit depth associated with some or all of transform coefficients 207 . For example, an n-bit transform coefficient may be truncated to an m-bit transform coefficient during quantization, where n is greater than m. The degree of quantization may be changed by adjusting a quantization parameter (QP). For example, in scalar quantization, different scaling may be applied to achieve finer or coarser quantization. A smaller quantization step size corresponds to finer quantization. On the other hand, a larger quantization step size corresponds to coarser quantization. The applicable quantization step may be indicated by a quantization parameter (QP). A quantization parameter may, for example, be an index into a predetermined set of applicable quantization step sizes. For example, a small quantization parameter may correspond to fine quantization (small quantization step size), a large quantization parameter may correspond to coarse quantization (large quantization step size), and vice versa. The same is true for Quantization may include division by a quantization step size, and corresponding and/or inverse dequantization by inverse quantization unit 210 may include multiplication by a quantization step size, for example. Some standards, eg, HEVC implementations, may be configured to use a quantization parameter to determine the quantization step size. In general, the quantization step size may be calculated based on the quantization parameter using a fixed-point approximation of an equation involving division. Additional scaling factors for quantization and dequantization to restore the norm of the residual block, which can be changed due to the scaling used in the fixed-point approximation of the equations for the quantization step size and quantization parameter. may be introduced. In one exemplary implementation, inverse transform and dequantization scaling may be combined. Alternatively, a customized quantization table may be used and signaled from the encoder to the decoder in the bitstream, for example. Quantization is a non-reversible operation, and loss increases with increasing quantization step size.

基本的な量子化パラメータは、全てのルマ及びクロマ成分について一緒にビットストリームでシグナリングされる。しかし、クロミナンス成分についての量子化パラメータは、1つのスライス又はタイルグループレベル内の1つのピクチャ/コーディングユニット内のピクチャ/スライス又はタイルグループにおいて、基本的なものからシフトできる。この目的のため、ビットストリームは、2つのクロミナンス成分についてのPPSオフセット(pps_cb_qp_offset及びpps_cr_qp_offsetシンタックスエレメント)、2つのクロミナンス成分についてのスライスオフセット(slice_cb_qp_offset及びslice_cr_qp_offset)及び2つのオフセットリスト(cb_qp_offset_list及びcr_qp_offset_list)を含むことができ、これらは、通常ではPPSでシグナリングされ、テーブルを指すCUレベルインデックスを送信することにより、CUレベルについてQPオフセットを適用することを可能にする。 A basic quantization parameter is signaled in the bitstream jointly for all luma and chroma components. However, the quantization parameters for the chrominance components can be shifted from the basic one in a picture/slice or tile group within a picture/coding unit within a slice or tile group level. For this purpose, the bitstream stores PPS offsets for the two chrominance components (pps_cb_qp_offset and pps_cr_qp_offset syntax elements), slice offsets for the two chrominance components (slice_cb_qp_offset and slice_cr_qp_offset) and two offset lists (cb_qp_offset_list and cr_qp_offset_list). These are typically signaled in the PPS to allow the QP offset to be applied for the CU level by sending the CU level index pointing to the table.

ビデオエンコーダ20の実施形態(それぞれ、量子化ユニット208)は、例えば、直接或いはエントロピー符号化ユニット270を介して符号化される、量子化パラメータ(QP, quantization parameter)を出力するように構成されてもよく、それにより、例えば、ビデオデコーダ30は、復号のために量子化パラメータを受信して適用してもよい。 Embodiments of video encoder 20 (each, quantization unit 208) are configured to output a quantization parameter (QP), for example encoded directly or via entropy encoding unit 270. may also be used, whereby, for example, video decoder 30 may receive and apply a quantization parameter for decoding.

逆量子化
逆量子化ユニット210は、例えば、量子化ユニット208と同じ量子化ステップサイズに基づいて或いはこれを使用して、量子化ユニット208により適用された量子化方式の逆を適用することにより、量子化された係数に対して量子化ユニット208の逆量子化を適用して、反量子化された係数211を取得するように構成される。反量子化された係数211はまた、反量子化された残差係数211とも呼ばれ、典型的には量子化による損失のため変換係数と同一ではないが、変換係数207に対応してもよい。
Inverse Quantization Inverse quantization unit 210 by applying the inverse of the quantization scheme applied by quantization unit 208, for example based on or using the same quantization step size as quantization unit 208. , is configured to apply the inverse quantization of quantization unit 208 to the quantized coefficients to obtain dequantized coefficients 211 . The dequantized coefficients 211, also called dequantized residual coefficients 211, are typically not identical to the transform coefficients due to quantization losses, but may correspond to the transform coefficients 207. .

逆変換
逆変換処理ユニット212は、変換処理ユニット206により適用された変換の逆変換、例えば、逆離散コサイン変換(DCT, discrete cosine transform)若しくは逆離散サイン変換(DST, discrete sine transform)又は他の逆変換を適用して、サンプルドメインにおける再構成された残差ブロック213(又は対応する反量子化された係数213)を取得するように構成される。再構成された残差ブロック213はまた、変換ブロック213とも呼ばれてもよい。
Inverse transform Inverse transform processing unit 212 performs an inverse transform of the transform applied by transform processing unit 206, such as the inverse discrete cosine transform (DCT) or the discrete sine transform (DST) or other transform. It is configured to apply an inverse transform to obtain a reconstructed residual block 213 (or corresponding dequantized coefficients 213) in the sample domain. Reconstructed residual block 213 may also be referred to as transform block 213 .

再構成
再構成ユニット214(例えば、加算器又は合計器214)は、変換ブロック213(すなわち、再構成された残差ブロック213)を予測ブロック265に加算して、例えば、再構成された残差ブロック213のサンプル値と予測ブロック265のサンプル値とをサンプル毎に加算することにより、サンプルドメインにおける再構成されたブロック215を取得するように構成される。
Reconstruction Reconstruction unit 214 (e.g., adder or summer 214) adds transform block 213 (i.e., reconstructed residual block 213) to prediction block 265, e.g., reconstructed residual It is arranged to obtain the reconstructed block 215 in the sample domain by adding the sample values of the block 213 and the sample values of the prediction block 265 sample by sample.

フィルタリング
ループフィルタユニット220(又は略して「ループフィルタ」220)は、再構成されたブロック215をフィルタリングして、フィルタリングされたブロック221を取得するように、或いは一般的に、再構成されたサンプルをフィルタリングして、フィルタリングされたサンプル値を取得するように構成される。ループフィルタユニットは、例えば、ピクセル遷移を円滑化するように、或いは、ビデオ品質を改善するように構成される。ループフィルタユニット220は、デブロッキングフィルタ、サンプル適応オフセット(SAO, sample-adaptive offset)フィルタ又は1つ以上の他のフィルタ、例えば、適応ループフィルタ(ALF, adaptive loop filter)、ノイズ抑制フィルタ(NSF, noise suppression filter)又はこれらのいずれかの組み合わせのような1つ以上のループフィルタを含んでもよい。一例では、ループフィルタユニット220は、デブロッキングフィルタ、SAOフィルタ及びALFフィルタを含んでもよい。フィルタリングプロセスの順序は、デブロッキングフィルタ、SAO及びALFでもよい。他の例では、クロマスケーリングを伴うルママッピング(LMCS, luma mapping with chroma scaling)(すなわち、適応インループリシェーパ)と呼ばれるプロセスが追加される。このプロセスはデブロッキングの前に実行される。他の例では、デブロッキングフィルタプロセスはまた、内部サブブロックエッジ、例えば、アフィンサブブロックエッジ、ATMVPサブブロックエッジ、サブブロック変換(SBT, sub-block transform)エッジ及びイントラサブパーティション(ISP, intra sub-partition)エッジに適用されてもよい。ループフィルタユニット220はインループフィルタであるとして図2に示されているが、他の構成では、ループフィルタユニット220はポストループフィルタとして実現されてもよい。フィルタリングされたブロック221はまた、フィルタリングされた再構成ブロック221とも呼ばれてもよい。
Filtering A loop filter unit 220 (or “loop filter” 220 for short) filters the reconstructed block 215 to obtain a filtered block 221, or in general, the reconstructed samples. configured to filter to obtain filtered sample values; The loop filter unit is configured, for example, to smooth pixel transitions or improve video quality. Loop filter unit 220 may include a deblocking filter, a sample-adaptive offset (SAO) filter, or one or more other filters, such as an adaptive loop filter (ALF), a noise suppression filter (NSF, noise suppression filter) or any combination of these. In one example, loop filter unit 220 may include a deblocking filter, an SAO filter and an ALF filter. The order of the filtering process may be deblocking filter, SAO and ALF. In another example, a process called luma mapping with chroma scaling (LMCS) (ie adaptive in-loop reshaper) is added. This process is performed before deblocking. In another example, the deblocking filter process also removes internal sub-block edges, e.g., affine sub-block edges, ATMVP sub-block edges, sub-block transform (SBT) edges and intra sub-partition (ISP, intra sub -partition) may be applied to edges. Although loop filter unit 220 is shown in FIG. 2 as being an in-loop filter, in other configurations loop filter unit 220 may be implemented as a post-loop filter. Filtered block 221 may also be referred to as filtered reconstruction block 221 .

ビデオエンコーダ20の実施形態(それぞれ、ループフィルタユニット220)は、例えば、直接或いはエントロピー符号化ユニット220を介して符号化される、ループフィルタパラメータ(SAOフィルタパラメータ又はALFフィルタパラメータ又はLMCSパラメータ等)を出力するように構成されてもよく、それにより、例えば、デコーダ30は、復号のために同じループフィルタパラメータ又はそれぞれのループフィルタを受信して適用してもよい。 Embodiments of video encoder 20 (respectively, loop filter unit 220) encode loop filter parameters (such as SAO filter parameters or ALF filter parameters or LMCS parameters), e.g., encoded directly or via entropy encoding unit 220. output, so that, for example, decoder 30 may receive and apply the same loop filter parameters or respective loop filters for decoding.

復号ピクチャバッファ
復号ピクチャバッファ(DPB, decoded picture buffer)230は、ビデオエンコーダ20によりビデオデータを符号化するために、参照ピクチャ又は一般的に参照ピクチャデータを記憶するメモリでもよい。DPB230は、シンクロナスDRAM(SDRAM, synchronous DRAM)を含むダイナミックランダムアクセスメモリ(DRAM, dynamic random access memory)、磁気抵抗RAM(MRAM, magnetoresistive RAM)、抵抗RAM(RRAM, resistive RAM)、又は他のタイプのメモリデバイスのような様々なメモリデバイスのうちいずれかにより形成されてもよい。復号ピクチャバッファ(DPB, decoded picture buffer)230は、1つ以上のフィルタリングされたブロック221を記憶するように構成されてもよい。復号ピクチャバッファ230は、同じ現在ピクチャ又は異なるピクチャ、例えば、前に再構成されたピクチャの他の前にフィルタリングされたブロック、例えば、前に再構成されてフィルタリングされたブロック221を記憶するように更に構成されてもよく、例えば、インター予測のために、完全な前に再構成された、すなわち、復号されたピクチャ(及び対応する参照ブロック及びサンプル)、及び/又は部分的に再構成された現在ピクチャ(及び対応する参照ブロック及びサンプル)を提供してもよい。復号ピクチャバッファ(DPB, decoded picture buffer)230はまた、1つ以上のフィルタリングされていない再構成ブロック215、又は一般的には、例えば、再構成されたブロック215がループフィルタユニット220によりフィルタリングされない場合には、フィルタリングされていない再構成サンプル、又は再構成されたブロック若しくはサンプルのいずれかの他の更に処理されたバージョンを記憶するように構成されてもよい。
Decoded Picture Buffer Decoded picture buffer (DPB) 230 may be a memory that stores reference pictures, or reference picture data in general, for encoding video data by video encoder 20 . The DPB230 supports dynamic random access memory (DRAM), including synchronous DRAM (SDRAM, synchronous DRAM), magnetoresistive RAM (MRAM, magnetoresistive RAM), resistive RAM (RRAM, resistive RAM), or other types. may be formed by any of a variety of memory devices, such as memory devices of A decoded picture buffer (DPB) 230 may be configured to store one or more filtered blocks 221 . Decoded picture buffer 230 may store other previously filtered blocks of the same current picture or a different picture, e.g., a previously reconstructed picture, e.g., previously reconstructed and filtered block 221 . It may also be configured, e.g., for inter-prediction, full previously reconstructed, i.e. decoded, pictures (and corresponding reference blocks and samples), and/or partially reconstructed A current picture (and corresponding reference blocks and samples) may be provided. A decoded picture buffer (DPB) 230 also stores one or more unfiltered reconstructed blocks 215, or generally, for example, if the reconstructed blocks 215 are not filtered by the loop filter unit 220. may be configured to store unfiltered reconstructed samples or other further processed versions of either the reconstructed blocks or samples.

モード選択(パーティション及び予測)
モード選択ユニット260は、パーティションユニット262と、インター予測ユニット244と、イントラ予測ユニット254とを含み、元のピクチャデータ、例えば、元のブロック203(現在ピクチャ17の現在ブロック203)と、再構成ピクチャデータ、例えば、同じ(現在)ピクチャの及び/又は1つ又は複数の前に復号されたピクチャからの、例えば、復号ピクチャバッファ230又は他のバッファ(例えば、図示しないラインバッファ)からのフィルタリングされた及び/又はフィルタリングされていない再構成サンプル又はブロックとを受信又は取得するように構成される。再構成ピクチャデータは、予測ブロック265又は予測子265を取得するために、予測、例えば、インター予測又はイントラ予測のための参照ピクチャデータとして使用される。
Mode selection (partition and prediction)
Mode select unit 260 includes partition unit 262, inter-prediction unit 244, and intra-prediction unit 254, and uses original picture data, e.g., original block 203 (current block 203 of current picture 17) and reconstructed picture. Data, e.g., of the same (current) picture and/or from one or more previously decoded pictures, e.g., filtered data from decoded picture buffer 230 or other buffers (e.g., line buffers, not shown) and/or configured to receive or obtain unfiltered reconstructed samples or blocks. The reconstructed picture data is used as reference picture data for prediction, eg, inter-prediction or intra-prediction, to obtain predicted blocks 265 or predictors 265 .

モード選択ユニット260は、現在ブロック予測モードについてのパーティション(パーティションしないことを含む)と、予測モード(例えば、イントラ又はインター予測モード)とを決定又は選択し、残差ブロック205の計算のため且つ再構成ブロック215の再構成のために使用される対応する予測ブロック265を生成するように構成されてもよい。 Mode select unit 260 determines or selects a partition (including no partition) and a prediction mode (e.g., intra or inter prediction mode) for the current block prediction mode, for computation of residual block 205 and for reprocessing. It may be configured to generate a corresponding predicted block 265 that is used for reconstruction of the constituent block 215 .

モード選択ユニット260の実施形態は、最良の適合若しくは言い換えると最小残差(最小残差は送信又は記憶のためのより良い圧縮を意味する)又は最小シグナリングオーバヘッド(最小シグナリングオーバヘッドは送信又は記憶のためのより良い圧縮を意味する)を提供するか、或いは、双方を考慮するか或いはバランスさせるパーティション及び予測モードを(例えば、モード選択ユニット260によりサポートされるか或いは利用可能なものから)選択するように構成されてもよい。モード選択ユニット260は、レート歪み最適化(RDO, rate distortion optimization)に基づいて、パーティション及び予測モードを決定するように、すなわち、最小のレート歪みを提供する予測モードを選択するように構成されてもよい。この文脈における「最良」、「最小」、「最適」等のような用語は、必ずしも全体的な「最良」、「最小」、「最適」等を示すとは限らず、閾値を超えるか或いはそれよりも下である値のような終了若しくは選択基準、又は潜在的に「準最適選択」をもたらすが複雑さ及び処理時間を低減する他の制約の充足を示してもよい。 Embodiments of mode selection unit 260 determine the best fit or, in other words, minimum residual (minimum residual means better compression for transmission or storage) or minimum signaling overhead (minimum signaling overhead for transmission or storage). ), or select a partition and prediction mode (e.g., from those supported or available by mode selection unit 260) that considers or balances both. may be configured to Mode selection unit 260 is configured to determine the partition and prediction mode based on rate distortion optimization (RDO), i.e., select the prediction mode that provides the lowest rate distortion. good too. Terms such as "best", "least", "optimal", etc. in this context do not necessarily denote the overall "best", "least", "optimal", etc. It may indicate the satisfaction of termination or selection criteria such as values that are below or other constraints that potentially lead to "sub-optimal selection" but reduce complexity and processing time.

言い換えると、パーティションユニット262は、ビデオシーケンスからのピクチャをコーディングツリーユニット(CTU, coding tree unit)のシーケンスにパーティションするように構成されてもよく、CTU203は、例えば、四分木パーティション(QT, quad-tree-partitioning)、二分木パーティション(BT, binary partitioning)若しくは三分木パーティション(TT, triple-tree-partitioning)又はこれらのいずれかの組み合わせを繰り返し使用して、より小さいブロックパーティション又はサブブロック(これも再びブロックを形成する)に更にパーティションされてもよく、ブロックパーティション又はサブブロックのそれぞれについて予測を実行し、モード選択は、パーティションされたブロック203の木構造の選択を含み、予測モードは、ブロックパーティション又はサブブロックのそれぞれに適用される。 In other words, partition unit 262 may be configured to partition pictures from a video sequence into a sequence of coding tree units (CTUs), CTU 203, for example, quad tree partitions (QT, quad -tree-partitioning), binary partitioning (BT) or triple-tree-partitioning (TT) or any combination of these repeatedly to create smaller block partitions or sub-blocks (-tree-partitioning) again forming a block), performing prediction for each of the block partitions or sub-blocks, the mode selection comprising selecting a tree structure for the partitioned block 203, the prediction mode being: Applies to each block partition or sub-block.

以下に、例示的なビデオエンコーダ20により実行される(例えば、パーティションユニット260による)パーティション及び(インター予測ユニット244及びイントラ予測ユニット254による)予測処理について更に詳細に説明する。 The partitioning (eg, by partition unit 260) and prediction processing (by inter prediction unit 244 and intra prediction unit 254) performed by exemplary video encoder 20 are described in greater detail below.

パーティション
パーティションユニット262は、ビデオシーケンスからのピクチャをコーディングツリーユニット(CTU, coding tree unit)のシーケンスにパーティションするように構成されてもよく、パーティションユニット262は、コーディングツリーユニット(CTU, coding tree unit)203を、より小さいパーティション、例えば正方形又は長方形サイズのより小さいブロックにパーティション(又は分割)してもよい。3つのサンプル配列を有するピクチャについて、CTUは、ルマサンプルのN×Nブロックから、クロマサンプルの2つの対応するブロックと共に構成される。CTU内のルマブロックの最大許容サイズは、策定中のバーサタイルビデオコーディング(VVC, versatile video coding)では128×128と指定されているが、将来128×128ではない値、例えば256×256と指定される可能性がある。ピクチャのCTUは、スライス/タイルグループ、タイル又はブリックとしてクラスタ化/グループ化されてもよい。タイルは、ピクチャの長方形領域をカバーし、タイルは、1つ以上のブリックに分割できる。ブリックは、タイル内の複数のCTU行から構成される。複数のブリックにパーティションされないタイルは、ブリックと呼ばれることができる。しかし、ブリックはタイルの真のサブセットであり、タイルとは呼ばれない。VVCでサポートされるタイルグループの2つのモード、すなわち、ラスタ走査スライス/タイルグループモード及び長方形スライスモードが存在する。ラスタ走査タイルグループモードでは、スライス/タイルグループは、ピクチャのタイルラスタ走査におけるタイルのシーケンスを含む。長方形スライスモードでは、スライスは、ピクチャの長方形領域をまとめて形成するピクチャの多数のブリックを含む。長方形スライス内のブリックは、スライスのブリックラスタ走査の順序になっている。これらのより小さいブロック(サブブロックとも呼ばれてもよい)は、一層小さいパーティションに更にパーティションされてもよい。これはまた、ツリーパーティション又は階層ツリーパーティションとも呼ばれ、例えば、ルートツリーレベル0(階層レベル0、深度0)におけるルートブロックは、再帰的にパーティションされ、例えば、次のより下のツリーレベルの2つ以上のブロック、例えば、ツリーレベル1(階層レベル1、深度1)におけるノードにパーティションされてもよく、これらのブロックは、例えば、終了基準が充足されたため、例えば、最大ツリー深度又は最小ブロックサイズに達したため、パーティションが終了するまで、再び、次のより下のツリーレベル、例えば、ツリーレベル2(階層レベル2、深度2)の2つ以上のブロックにパーティションされる、等でもよい。更にパーティションされないブロックはまた、ツリーのリーフブロック又はリーフノードとも呼ばれる。2つのパーティションへのパーティションを使用するツリーは、二分木(BT, binary-tree)と呼ばれ、3つのパーティションへのパーティションを使用するツリーは三分木(TT, ternary-tree)と呼ばれ、4つのパーティションへのパーティションを使用するツリーは四分木(QT, quad-tree)と呼ばれる。
Partitions Partition unit 262 may be configured to partition pictures from a video sequence into a sequence of coding tree units (CTUs), where partition unit 262 is divided into coding tree units (CTUs). 203 may be partitioned (or divided) into smaller partitions, eg smaller blocks of square or rectangular size. For pictures with three sample arrays, the CTU is constructed from an N×N block of luma samples together with two corresponding blocks of chroma samples. The maximum allowable size of a luma block within a CTU is specified as 128x128 in the upcoming versatile video coding (VVC), but in the future it will be specified as something other than 128x128, such as 256x256. There is a possibility that CTUs of a picture may be clustered/grouped as slices/tile groups, tiles or bricks. A tile covers a rectangular area of the picture, and a tile can be divided into one or more bricks. A brick consists of multiple CTU rows within a tile. A tile that is not partitioned into multiple bricks can be called a brick. However, bricks are a true subset of tiles and are not called tiles. There are two modes of tile groups supported in VVC: raster scan slice/tile group mode and rectangular slice mode. In raster scan tile group mode, a slice/tile group contains a sequence of tiles in a tile raster scan of a picture. In rectangular slice mode, a slice includes a number of bricks of a picture that together form a rectangular region of the picture. The bricks in the rectangular slice are in the order of the brick raster scan of the slice. These smaller blocks (which may also be called sub-blocks) may be further partitioned into smaller partitions. This is also called tree partition or hierarchical tree partition, e.g. the root block at root tree level 0 (hierarchical level 0, depth 0) is recursively partitioned, e.g. It may be partitioned into one or more blocks, e.g., nodes at tree level 1 (hierarchy level 1, depth 1), and these blocks may e.g. , it may again be partitioned into two or more blocks at the next lower tree level, eg, tree level 2 (hierarchy level 2, depth 2), etc., until the partitioning ends. Blocks that are not further partitioned are also called leaf blocks or leaf nodes of the tree. A tree that uses a partition into two partitions is called a binary-tree (BT), a tree that uses a partition into three partitions is called a ternary-tree (TT), A tree that uses partitions into four partitions is called a quad-tree (QT, quad-tree).

例えば、コーディングツリーユニット(CTU, coding tree unit)は、ルマサンプルのCTB、3つのサンプル配列を有するピクチャのクロマサンプルの2つの対応するCTB、又はモノクロピクチャ若しくは3つの別個の色平面及びサンプルをコーディングするために使用されるシンタックス構造を使用してコーディングされるピクチャのサンプルのCTBでもよく或いはこれを含んでもよい。対応して、コーディングツリーブロック(CTB, coding tree block)は、何らかの値のNについて、サンプルのN×Nブロックでもよく、それにより、CTBへの成分の分割はパーティションである。コーディングユニット(CU, coding unit)は、ルマサンプルのコーディングブロック、3つのサンプル配列を有するピクチャのクロマサンプルの2つの対応するコーディングブロック、又はモノクロピクチャ若しくは3つの別個の色平面及びサンプルをコーディングするために使用されるシンタックス構造を使用してコーディングされるピクチャのサンプルのコーディングブロックでもよく或いはこれを含んでもよい。対応して、コーディングブロック(CB, coding block)は、何らかの値のM及びNについて、サンプルのM×Nブロックでもよく、それにより、コーディングブロックへのCTBの分割はパーティションである。 For example, a coding tree unit (CTU) may code a CTB for luma samples, two corresponding CTBs for chroma samples for a picture with three sample arrays, or a monochrome picture or three separate color planes and samples. It may also be or include a CTB of samples of a picture coded using the syntax structure used to do this. Correspondingly, a coding tree block (CTB) may be an N×N block of samples, for some value of N, whereby the division of components into CTBs is a partition. A coding unit (CU, coding unit) is for coding a coding block of luma samples, two corresponding coding blocks of chroma samples in a picture with three sample arrays, or a monochrome picture or three separate color planes and samples. may be or include a coding block of samples of a picture that is coded using the syntax structure used in . Correspondingly, a coding block (CB) may be an M×N block of samples, for some values of M and N, whereby the division of the CTB into coding blocks is a partition.

例えば、HEVCによる実施形態では、コーディングツリーユニット(CTU, coding tree unit)は、コーディングツリーとして示される四分木構造を使用することによりCUに分割されてもよい。インターピクチャ(時間)予測を使用してピクチャ領域をコーディングするか、イントラピクチャ(空間)予測を使用してピクチャ領域をコーディングするかの判断は、リーフCUレベルで行われる。各リーフCUは、PU分割タイプに従って、1つ、2つ又は4つのPUに更に分割できる。1つのPU内で、同じ予測プロセスが適用され、関連情報がPU毎にデコーダに送信される。PU分割タイプに基づいて予測プロセスを適用することにより残差ブロックを取得した後に、リーフCUは、CUについてのコーディングツリーと同様の他の四分木構造に従って、変換ユニット(TU, transform unit)にパーティションできる。 For example, in an HEVC embodiment, a coding tree unit (CTU) may be split into CUs by using a quadtree structure denoted as coding tree. The decision whether to code a picture region using inter-picture (temporal) prediction or intra-picture (spatial) prediction is made at the leaf CU level. Each leaf-CU can be further split into 1, 2 or 4 PUs according to the PU split type. Within one PU, the same prediction process is applied and relevant information is sent to the decoder for each PU. After obtaining the residual block by applying the prediction process based on the PU partition type, the leaf CU is transferred to the transform unit (TU) according to another quadtree structure similar to the coding tree for the CU. can partition.

例えば、バーサタイルビデオコーディング(VVC, Versatile Video Coding)と呼ばれる現在策定中の最新のビデオコーディング標準による実施形態では、二分割及び三分割セグメント化構造を使用する結合された四分木ネスト型マルチタイプツリーが、例えば、コーディングツリーユニットをパーティションするために使用される。コーディングツリーユニット内のコーディングツリー構造では、CUは正方形又は長方形形状のいずれかを有することができる。例えば、コーディングツリーユニット(CTU, coding tree unit)は、まず、四分木によりパーティションされる。次いで、四分木リーフノードは、マルチタイプツリー構造により更にパーティションできる。マルチタイプツリー構造には、4つの分割タイプ、すなわち、垂直二分割(SPLIT_BT_VER)、水平二分割(SPLIT_BT_HOR)、垂直三分割(SPLIT_TT_VER)及び水平三分割(SPLIT_TT_HOR)が存在する。マルチタイプツリーリーフノードは、コーディングユニット(CU, coding unit)と呼ばれ、CUが最大変換長にとって大きすぎない限り、このセグメント化は、更なるパーティションなしで予測及び変換処理に使用される。これは、ほとんどの場合、CU、PU及びTUがネスト型マルチタイプツリーのコーディングブロック構造を有する四分木において同じブロックサイズを有することを意味する。例外は、最大サポート変換長がCUの色成分の幅又は高さよりも小さいときに発生する。VVCは、ネスト型マルチタイプツリーのコーディングツリー構造を有する四分木におけるパーティション分割情報の独特のシグナリングメカニズムを策定している。当該シグナリングメカニズムでは、コーディングツリーユニット(CTU, coding tree unit)は四分木のルートとして扱われ、まず、四分木構造によりパーティションされる。次いで、各四分木リーフノード(それを許容するほど十分に大きいとき)は、マルチタイプツリー構造により更にパーティションされる。マルチタイプツリー構造では、第1のフラグ(mtt_split_cu_flag)は、ノードが更にパーティションされるか否かを示すためにシグナリングされ、ノードが更にパーティションされるとき、第2のフラグ(mtt_split_cu_vertical_flag)は、分割方向を示すためにシグナリングされ、次いで、第3のフラグ(mtt_split_cu_binary_flag)は、分割が二分割であるか三分割であるかを示すためにシグナリングされる。mtt_split_cu_vertical_flag及びmtt_split_cu_binary_flagの値に基づいて、CUのマルチタイプツリー分割モード(MttSplitMode)は、所定のルール又はテーブルに基づいてデコーダにより導出できる。図6に示すように、特定の設計、例えば、VVCハードウェアデコーダにおける64×64ルマブロック及び32×32クロマパイプライン設計では、ルマコーディングブロックの幅又は高さのいずれかが64よりも大きいとき、TT分割は禁止される。クロマコーディングブロックの幅又は高さのいずれかが32よりも大きいときも、TT分割は禁止される。パイプライン設計は、ピクチャを仮想パイプラインデータユニット(VPDU, Virtual pipeline data unit)に分割し、これらは、ピクチャ内の重複しないユニットとして定義される。ハードウェアデコーダでは、連続するVPDUが複数のパイプライン段により同時に処理される。VPDUサイズは、ほとんどのパイプライン段においてバッファサイズにほぼ比例するので、VPDUサイズを小さく保持することが重要である。ほとんどのハードウェアデコーダでは、VPDUサイズは最大変換ブロック(TB, transform block)サイズに設定できる。しかし、VVCでは、三分木(TT, ternary tree)及び二分木(BT, binary tree)パーティションはVPDUサイズの増加をもたらす可能性がある。 For example, in embodiments according to the latest video coding standard currently under development called Versatile Video Coding (VVC), combined quadtree nested multitype trees using bipartite and tripartite segmentation structures is used, for example, to partition a coding tree unit. In the coding tree structure within the coding tree unit, a CU can have either a square or rectangular shape. For example, a coding tree unit (CTU) is first partitioned by a quadtree. The quadtree leaf nodes can then be further partitioned according to the multi-type tree structure. There are four split types in the multi-type tree structure: vertical split (SPLIT_BT_VER), horizontal split (SPLIT_BT_HOR), vertical split (SPLIT_TT_VER) and horizontal split (SPLIT_TT_HOR). A multi-type tree leaf node is called a coding unit (CU), and unless the CU is too large for the maximum transform length, this segmentation is used for prediction and transform processing without further partitioning. This means that in most cases, CU, PU and TU have the same block size in a quadtree with nested multi-type tree coding block structure. An exception occurs when the maximum supported transform length is less than the width or height of the CU's color components. VVC formulates a unique signaling mechanism for partitioning information in quadtrees with a coding tree structure of nested multi-type trees. In this signaling mechanism, the coding tree unit (CTU) is treated as the root of a quadtree and is first partitioned according to the quadtree structure. Each quadtree leaf node (when large enough to allow it) is then further partitioned by a multi-type tree structure. In the multitype tree structure, the first flag (mtt_split_cu_flag) is signaled to indicate whether the node is further partitioned or not, and when the node is further partitioned, the second flag (mtt_split_cu_vertical_flag) is the split direction. and then a third flag (mtt_split_cu_binary_flag) is signaled to indicate whether the split is a 2-split or a 3-split. Based on the values of mtt_split_cu_vertical_flag and mtt_split_cu_binary_flag, the CU's multi-type tree split mode (MttSplitMode) can be derived by the decoder based on a predefined rule or table. As shown in FIG. 6, in certain designs, such as 64×64 luma block and 32×32 chroma pipeline designs in a VVC hardware decoder, when either the width or height of the luma coding block is greater than 64 , TT division is prohibited. TT splitting is also prohibited when either the width or height of the chroma coding block is greater than 32. A pipeline design divides a picture into virtual pipeline data units (VPDUs), which are defined as non-overlapping units within a picture. In a hardware decoder, successive VPDUs are processed simultaneously by multiple pipeline stages. Since the VPDU size is roughly proportional to the buffer size in most pipeline stages, it is important to keep the VPDU size small. For most hardware decoders, the VPDU size can be set to the maximum transform block (TB) size. However, in VVC, ternary tree (TT) and binary tree (BT) partitions can lead to an increase in VPDU size.

さらに、ツリーノードブロックの一部が下側又は右側ピクチャ境界を超えるとき、ツリーノードブロックは、全てのコーディングされたCUの全てのサンプルがピクチャ境界内に位置するまで、強制的に分割される点に留意すべきである。 Furthermore, when part of a treenode block crosses the lower or right picture boundary, the treenode block is forced to split until all samples of all coded CUs lie within the picture boundary. should be noted.

一例として、イントラサブパーティション(ISP, Intra Sub-Partitions)ツールは、ブロックサイズに依存して、ルマイントラ予測ブロックを垂直又は水平に2つ又は4つのサブパーティションに分割してもよい。 As an example, an Intra Sub-Partitions (ISP) tool may split a luma intra prediction block vertically or horizontally into 2 or 4 sub-partitions, depending on the block size.

一例では、ビデオエンコーダ20のモード選択ユニット260は、ここに記載のパーティション技術のいずれかの組み合わせを実行するように構成されてもよい。 In one example, mode selection unit 260 of video encoder 20 may be configured to perform any combination of the partitioning techniques described herein.

上記のように、ビデオエンコーダ20は、(例えば、予め決定された)予測モードのセットから最良又は最適な予測モードを決定又は選択するように構成される。予測モードのセットは、例えば、イントラ予測モード及び/又はインター予測モードを含んでもよい。 As noted above, video encoder 20 is configured to determine or select the best or optimal prediction mode from a (eg, predetermined) set of prediction modes. A set of prediction modes may include, for example, intra-prediction modes and/or inter-prediction modes.

イントラ予測
イントラ予測モードのセットは、35個の異なるイントラ予測モード、例えば、DC(又は平均)モード及びプラナーモードのような非方向性モード、又は例えば、HEVCで定義されたような方向性モードを含んでもよく、或いは、67個の異なるイントラ予測モード、例えば、DC(又は平均)モード及びプラナーモードのような非方向性モード、又は例えば、VVCについて定義されたような方向性モードを含んでもよい。一例として、いくつかの従来の角度イントラ予測モードは、例えばVVCにおいて定義されたような非正方形ブロックのための広角イントラ予測モードに適応的に置き換えられる。他の例として、DC予測のための分割動作を回避するために、長辺のみが非正方形ブロックについての平均を計算するために使用される。さらに、プラナーモードのイントラ予測の結果は、位置依存イントラ予測結合(PDPC, position dependent intra prediction combination)方法により更に修正されてもよい。
Intra Prediction The set of intra prediction modes includes 35 different intra prediction modes, non-directional modes such as DC (or average) mode and planar mode, or directional modes such as those defined in HEVC. or 67 different intra-prediction modes, e.g. non-directional modes such as DC (or average) mode and planar mode, or directional modes such as defined for VVC . As an example, some conventional angular intra-prediction modes are adaptively replaced by wide-angle intra-prediction modes for non-square blocks, eg, as defined in VVC. As another example, only the long sides are used to compute the average for non-square blocks to avoid splitting operations for DC prediction. In addition, the results of planar mode intra prediction may be further modified by a position dependent intra prediction combination (PDPC) method.

イントラ予測ユニット254は、イントラ予測モードのセットのうち或るイントラ予測モードに従ってイントラ予測ブロック265を生成するために、同じ現在ピクチャの隣接ブロックの再構成されたサンプルを使用するように構成される。 Intra-prediction unit 254 is configured to use reconstructed samples of neighboring blocks of the same current picture to generate intra-prediction blocks 265 according to an intra-prediction mode of a set of intra-prediction modes.

イントラ予測ユニット254(又は一般的にモード選択ユニット260)は、符号化ピクチャデータ21に含めるためにシンタックスエレメント226の形式で、イントラ予測パラメータ(又は一般的にブロックについて選択されたイントラ予測モードを示す情報)をエントロピー符号化ユニット270に出力するように更に構成され、それにより、例えば、ビデオデコーダ30は、復号のために予測パラメータを受信して使用してもよい。 Intra prediction unit 254 (or generally mode selection unit 260) selects intra prediction parameters (or generally the intra prediction mode selected for the block) in the form of syntax elements 226 for inclusion in encoded picture data 21. information) to entropy encoding unit 270 so that, for example, video decoder 30 may receive and use the prediction parameters for decoding.

インター予測
インター予測モードのセット(又は可能なもの)は、利用可能な参照ピクチャ(すなわち、例えば、DBP230に記憶された、前の少なくとも部分的に復号されたピクチャ)及び他のインター予測パラメータ、例えば、最良の適合する参照ブロックを探索するために全体の参照ピクチャが使用されるか、参照ピクチャの部分のみ、例えば、現在ブロックの領域の周辺の探索ウインドウ領域が使用されるか、及び/又は、例えば、ピクセル補間、例えばハーフ/セミペル、4分の1ペル及び/又は1/16ペル補間が適用されるか否かに依存する。
Inter Prediction A set (or possible) of inter prediction modes are available reference pictures (i.e., previous at least partially decoded pictures stored in DBP 230, for example) and other inter prediction parameters, e.g. , whether the entire reference picture is used to search for the best matching reference block, or only part of the reference picture is used, e.g., the search window area around the area of the current block, and/or For example, depending on whether pixel interpolation is applied, such as half/semi-pel, quarter-pel and/or 1/16-pel interpolation.

上記の予測モードに加えて、スキップモード、直接モード及び/又は他のインター予測モードが適用されてもよい。 In addition to the prediction modes mentioned above, skip mode, direct mode and/or other inter-prediction modes may be applied.

例えば、拡張マージ予測では、このようなモードのマージ候補リストは、順に以下の5つのタイプの候補、すなわち、空間隣接CUからの空間MVP、同一位置のCUからの時間MVP、FIFOテーブルからの履歴ベースMVP、対の平均MVP及びゼロMVを含めることにより構成される。さらに、マージモードのMVの精度を高めるために、バイラテラルマッチングベースのデコーダ側動きベクトル精緻化(DMVR, decoder-side motion vector refinement)が適用されてもよい。MVDを伴うマージモード(MMVD, Merge mode with MVD)は、動きベクトル差(MVD, motion vector difference)を伴うマージモードに由来する。MMVDモードがCUに使用されるか否かを指定するために、スキップフラグ及びマージフラグを送信した直後にMMVDフラグがシグナリングされる。さらに、CUレベルの適応動きベクトル精度(AMVR, adaptive motion vector resolution)方式が適用されてもよい。AMVRは、CUのMVDが異なる精度でコーディングされることを可能にする。現在のCUについての予測モードに依存して、現在のCUのMVDが適応的に選択できる。CUがマージモードでコーディングされるとき、結合インター/イントラ予測(CIIP, combined inter/intra prediction)モードが現在のCUに適用されてもよい。CIIP予測を取得するために、インター及びイントラ予測信号の加重平均が実行される。アフィン動き補償予測では、ブロックのアフィン動き場は、2つの制御点(4パラメータ)又は3つの制御点動きベクトル(6パラメータ)の動き情報により記述される。サブブロックベースの時間動きベクトル予測(SbTMVP, sub-block-based temporal motion vector prediction)は、HEVCにおける時間動きベクトル予測(TMVP, temporal motion vector prediction)と同様であるが、現在のCU内のサブCUの動きベクトルを予測する。以前はBIOと呼ばれていた双方向オプティカルフロー(BDOF, bi-directional optical flow)は、特に乗算の数及び乗算器のサイズに関して非常に少ない計算量を必要とするより簡単なバージョンである。三角パーティションモードでは、このようなモードで、CUは、対角分割又は非対角分割のいずれかを使用して2つの三角形の形状のパーティションに均等に分割される。その上、双予測モードは、2つの予測信号の加重平均を可能にするために、単純平均を越えて拡張される。 For example, in extended merge prediction, the merge candidate list for such a mode consists of the following five types of candidates in order: spatial MVPs from spatial neighbor CUs, temporal MVPs from co-located CUs, history from FIFO table It is constructed by including the base MVP, paired average MVP and zero MV. Furthermore, bilateral matching-based decoder-side motion vector refinement (DMVR) may be applied to improve the accuracy of MVs in merge mode. MMVD, Merge mode with MVD, is derived from Merge mode with motion vector difference (MVD). The MMVD flag is signaled immediately after sending the skip and merge flags to specify whether MMVD mode is used for the CU. In addition, a CU-level adaptive motion vector resolution (AMVR) scheme may be applied. AMVR allows the MVD of a CU to be coded with different precisions. Depending on the prediction mode for the current CU, the current CU's MVD can be adaptively selected. When a CU is coded in merge mode, a combined inter/intra prediction (CIIP) mode may be applied to the current CU. A weighted average of the inter and intra prediction signals is performed to obtain the CIIP prediction. In affine motion compensated prediction, the affine motion field of a block is described by the motion information of two control points (4 parameters) or three control point motion vectors (6 parameters). Sub-block-based temporal motion vector prediction (SbTMVP) is similar to temporal motion vector prediction (TMVP) in HEVC, but sub-CUs within the current CU predict the motion vector of Bi-directional optical flow (BDOF), formerly called BIO, is a simpler version that requires a very low amount of computation, especially in terms of the number of multiplications and the size of the multipliers. In triangular partition mode, in such mode the CU is evenly divided into two triangular shaped partitions using either diagonal or off-diagonal partitioning. Moreover, bi-prediction mode is extended beyond simple averaging to allow weighted averaging of the two prediction signals.

インター予測ユニット244は、動き推定(ME, motion estimation)ユニット及び動き補償(ME, motion compensation)ユニット(双方とも図2に図示せず)を含んでもよい。動き推定ユニットは、動き推定のために、ピクチャブロック203(現在ピクチャ17の現在ブロック203)及び復号ピクチャ231、又は少なくとも1つ若しくは複数の前に再構成されたブロック、例えば、1つ若しくは複数の他の/異なる前の復号ピクチャ231の再構成されたブロックを受信又は取得するように構成されてもよい。例えば、ビデオシーケンスは、現在ピクチャ及び前の復号ピクチャ231を含んでもよく、或いは言い換えると、現在ピクチャ及び前の復号ピクチャ231は、ビデオシーケンスを形成するピクチャのシーケンスの一部でもよく或いはこれを形成してもよい。 Inter-prediction unit 244 may include a motion estimation (ME) unit and a motion compensation (ME) unit (both not shown in FIG. 2). The motion estimation unit uses picture block 203 (current block 203 of current picture 17) and decoded picture 231, or at least one or more previously reconstructed blocks, e.g. It may be configured to receive or obtain reconstructed blocks of other/different previous decoded pictures 231 . For example, a video sequence may include a current picture and a previous decoded picture 231, or in other words, the current picture and the previous decoded picture 231 may be part of or form a sequence of pictures forming the video sequence. You may

エンコーダ20は、例えば、複数の他のピクチャの同じ或いは異なるピクチャの複数の参照ブロックから参照ブロックを選択し、参照ピクチャ(又は参照ピクチャインデックス)及び/又は参照ブロックの位置(x,y座標)と現在ブロックの位置との間のオフセット(空間オフセット)を、インター予測パラメータとして動き推定ユニットに提供するように構成されてもよい。このオフセットはまた、動きベクトル(MV, motion vector)とも呼ばれる。 Encoder 20 selects a reference block from, for example, a plurality of reference blocks of the same or different pictures of a plurality of other pictures, the reference picture (or reference picture index) and/or the position (x,y coordinates) of the reference block and It may be arranged to provide the offset (spatial offset) to the position of the current block as an inter-prediction parameter to the motion estimation unit. This offset is also called a motion vector (MV).

動き補償ユニットは、インター予測パラメータを取得し、例えば、受信し、インター予測パラメータに基づいて或いはこれを使用してインター予測を実行して、インター予測ブロック265を取得するように構成される。動き補償ユニットにより実行される動き補償は、動き推定により決定された動き/ブロックベクトルに基づいて、予測ブロックをフェッチ又は生成し、場合によってはサブピクセル精度への補間を実行することを含んでもよい。補間フィルタリングは、既知のピクセルサンプルから更なるピクセルサンプルを生成してもよく、したがって、ピクチャブロックをコーディングするために使用され得る候補予測ブロックの数を潜在的に増加させる。現在ピクチャブロックのPUの動きベクトルを受信すると、動き補償ユニットは、参照ピクチャリストのうち1つの中で動きベクトルが指す予測ブロックを見つけてもよい。 The motion compensation unit is configured to obtain, eg, receive, inter-prediction parameters and perform inter-prediction based on or using the inter-prediction parameters to obtain inter-prediction blocks 265 . Motion compensation performed by the motion compensation unit may include fetching or generating a prediction block based on motion/block vectors determined by motion estimation, and possibly performing interpolation to sub-pixel accuracy. . Interpolation filtering may generate additional pixel samples from known pixel samples, thus potentially increasing the number of candidate predictive blocks that can be used to code a picture block. Upon receiving a motion vector for the PU of the current picture block, the motion compensation unit may find the predictive block pointed to by the motion vector in one of the reference picture lists.

動き補償ユニットはまた、ビデオスライスのピクチャブロックを復号する際にビデオデコーダ30による使用のために、ブロック及びビデオスライスに関連するシンタックスエレメントを生成してもよい。スライス及びそれぞれのシンタックスエレメントに加えて或いはその代替として、タイルグループ及び/又はタイル及びそれぞれのシンタックスエレメントが生成又は使用されてもよい。 Motion compensation unit may also generate syntax elements associated with the blocks and video slices for use by video decoder 30 in decoding the picture blocks of the video slices. Tile groups and/or tiles and respective syntax elements may be generated or used in addition to or alternative to slices and respective syntax elements.

エントロピーコーディング
エントロピー符号化ユニット270は、量子化された係数209、インター予測パラメータ、イントラ予測パラメータ、ループフィルタパラメータ及び/又は他のシンタックスエレメントに対して、例えば、エントロピー符号化アルゴリズム又は方式(例えば、可変長コーディング(VLC, variable length coding)方式、コンテキスト適応型VLC方式(CAVLC, context adaptive VLC, scheme)、算術コーディング方式、二値化、コンテキスト適応型バイナリ算術コーディング(CABAC, context adaptive binary arithmetic coding)、シンタックスベースのコンテキスト適応型バイナリ算術コーディング(SBAC, syntax-based context-adaptive binary arithmetic coding)、確率区間区分エントロピー(PIPE, probability interval partitioning entropy)コーディング又は他のエントロピー符号化方法若しくは技術)を適用するか或いは迂回して(非圧縮)、例えば、符号化ビットストリーム21の形式で出力272を介して出力できる符号化ピクチャデータ21を取得するように構成され、それにより、例えば、ビデオデコーダ30は、復号のためにパラメータを受信して使用してもよい。符号化ビットストリーム21は、ビデオデコーダ39に送信されてもよく、或いは、ビデオデコーダ30による後の送信又は取り出しのためにメモリに記憶されてもよい。
Entropy Coding Entropy encoding unit 270 applies, for example, an entropy encoding algorithm or scheme (eg, Variable length coding (VLC) scheme, context adaptive VLC scheme (CAVLC), arithmetic coding scheme, binarization, context adaptive binary arithmetic coding (CABAC) , syntax-based context-adaptive binary arithmetic coding (SBAC), probability interval partitioning entropy (PIPE) coding or other entropy coding methods or techniques). or bypassed (uncompressed) to obtain encoded picture data 21, which may be output via output 272, for example, in the form of an encoded bitstream 21, whereby, for example, video decoder 30 may , may receive and use the parameters for decoding. Encoded bitstream 21 may be transmitted to video decoder 39 or may be stored in memory for later transmission or retrieval by video decoder 30 .

ビデオエンコーダ20の他の構造的変形は、ビデオストリームを符号化するために使用できる。例えば、非変換ベースのエンコーダ20は、特定のブロック又はフレームについて、変換処理ユニット206なしに、残差信号を直接量子化できる。他の実現方式では、エンコーダ20は、単一のユニットに結合された量子化ユニット208及び逆量子化ユニット210を有することができる。 Other structural variations of video encoder 20 can be used to encode the video stream. For example, non-transform-based encoder 20 can directly quantize the residual signal without transform processing unit 206 for a particular block or frame. In other implementations, encoder 20 may have quantization unit 208 and inverse quantization unit 210 combined into a single unit.

デコーダ及び復号方法
図3は、本願の技術を実現するように構成されたビデオデコーダ30の例を示す。ビデオデコーダ30は、復号ピクチャ331を取得するために、例えば、エンコーダ20により符号化された符号化ピクチャデータ21(例えば、符号化ビットストリーム21)を受信するように構成される。符号化ピクチャデータ又はビットストリームは、符号化ピクチャデータを複合するための情報、例えば、符号化ビデオスライス(及び/又はタイルグループ又はタイル)のピクチャブロック及び関連するシンタックスエレメントを表すデータを含む。
Decoders and Decoding Methods FIG. 3 shows an example of a video decoder 30 configured to implement the techniques of the present application. Video decoder 30 is configured to receive encoded picture data 21 (eg, encoded bitstream 21 ), eg encoded by encoder 20 , to obtain decoded pictures 331 . The coded picture data or bitstream includes information for composing the coded picture data, eg, data representing picture blocks and associated syntax elements of coded video slices (and/or tile groups or tiles).

図3の例では、デコーダ30は、エントロピー復号ユニット304と、逆量子化ユニット310と、逆変換処理ユニット312と、再構成ユニット314(例えば、合計器314)と、ループフィルタ320と、復号ピクチャバッファ(DBP, decoded picture buffer)330と、モード適用ユニット360と、インター予測ユニット344と、イントラ予測ユニット354とを含む。インター予測ユニット344は、動き補償ユニットでもよく或いはこれを含んでもよい。ビデオデコーダ30は、いくつかの例では、図2からビデオエンコーダ100に関して説明した符号化経路と一般的に逆の復号経路を実行してもよい。 In the example of FIG. 3, decoder 30 includes entropy decoding unit 304, inverse quantization unit 310, inverse transform processing unit 312, reconstruction unit 314 (eg, summer 314), loop filter 320, decoded picture It includes a buffer (DBP, decoded picture buffer) 330 , a mode application unit 360 , an inter prediction unit 344 and an intra prediction unit 354 . Inter prediction unit 344 may be or include a motion compensation unit. Video decoder 30 may, in some examples, perform a decoding path generally reciprocal to the encoding path described with respect to video encoder 100 from FIG.

エンコーダ20に関して説明したように、逆量子化ユニット210、逆変換処理ユニット212、再構成ユニット214、ループフィルタ220、復号ピクチャバッファ(DPB, decoded picture buffer)230、インター予測ユニット344及びイントラ予測ユニット354はまた、ビデオエンコーダ20の「内蔵デコーダ」を形成するとも呼ばれてもよい。したがって、逆量子化ユニット310は逆量子化ユニット110と機能的に同一でもよく、逆変換処理ユニット312は逆変換処理ユニット212と機能的に同一でもよく、再構成ユニット314は再構成ユニット214と機能的に同一でもよく、ループフィルタ320はループフィルタ220と機能的に同一でもよく、復号ピクチャバッファ330は復号ピクチャバッファ230と機能的に同一でもよい。したがって、ビデオ20エンコーダのそれぞれのユニット及び機能について提供された説明は、対応して、ビデオデコーダ30のそれぞれのユニット及び機能に適用する。 Inverse quantization unit 210, inverse transform processing unit 212, reconstruction unit 214, loop filter 220, decoded picture buffer (DPB) 230, inter prediction unit 344 and intra prediction unit 354, as described with respect to encoder 20. may also be referred to as forming the “built-in decoder” of video encoder 20 . Thus, inverse quantization unit 310 may be functionally identical to inverse quantization unit 110, inverse transform processing unit 312 may be functionally identical to inverse transform processing unit 212, and reconstruction unit 314 may be functionally identical to reconstruction unit 214. Functionally identical, loop filter 320 may be functionally identical to loop filter 220 and decoded picture buffer 330 may be functionally identical to decoded picture buffer 230 . Accordingly, the description provided for each unit and function of video 20 encoder applies to each unit and function of video decoder 30 correspondingly.

エントロピー復号
エントロピー復号ユニット304は、ビットストリーム21(又は一般的には符号化ピクチャデータ21)をパースし、例えば、符号化ピクチャデータ21に対してエントロピー復号を実行して、例えば、量子化された係数309及び/又は復号されたコーディングパラメータ(図3に図示せず)、例えば、インター予測パラメータ(例えば、参照ピクチャインデックス及び動きベクトル)、イントラ予測パラメータ(例えば、イントラ予測モード又はインデックス)、変換パラメータ、量子化パラメータ、ループフィルタパラメータ及び/又は他のシンタックスエレメントのうちいずれか又は全てを取得するように構成される。エントロピー復号ユニット304は、エンコーダ20のエントロピー符号化ユニット270に関して説明したような符号化方式に対応する復号アルゴリズム又は方式を適用するように構成されてもよい。エントロピー復号ユニット304は、インター予測パラメータ、イントラ予測パラメータ及び/又は他のシンタックスエレメントをモード適用ユニット360に提供し、他のパラメータをデコーダ30の他のユニットに提供するように更に構成されてもよい。ビデオデコーダ30は、ビデオスライスレベル及び/又はビデオブロックレベルのシンタックスエレメントを受信してもよい。スライス及びそれぞれのシンタックスエレメントに加えて或いはその代替として、タイルグループ及び/又はタイル及びそれぞれのシンタックスエレメントが受信及び/又は使用されてもよい。
Entropy Decoding Entropy decoding unit 304 parses the bitstream 21 (or encoded picture data 21 in general) and, for example, performs entropy decoding on the encoded picture data 21 to, for example, quantize Coefficients 309 and/or decoded coding parameters (not shown in FIG. 3), such as inter-prediction parameters (eg, reference picture indices and motion vectors), intra-prediction parameters (eg, intra-prediction modes or indices), transform parameters. , quantization parameters, loop filter parameters and/or other syntax elements. Entropy decoding unit 304 may be configured to apply decoding algorithms or schemes corresponding to encoding schemes such as those described with respect to entropy encoding unit 270 of encoder 20 . Entropy decoding unit 304 may be further configured to provide inter-prediction parameters, intra-prediction parameters and/or other syntax elements to mode application unit 360 and other parameters to other units of decoder 30. good. Video decoder 30 may receive video slice-level and/or video block-level syntax elements. Tile groups and/or tiles and respective syntax elements may be received and/or used in addition to or alternative to slices and respective syntax elements.

逆量子化
逆量子化ユニット310は、符号化ピクチャデータ21から(例えば、エントロピー復号ユニット304により例えばパース及び/又は復号することにより)量子化パラメータ(QP, quantization parameter)(又は一般的に逆量子化に関する情報)及び量子化された係数を受信し、量子化パラメータに基づいて、復号済みの量子化された係数309に対して逆量子化を適用して、変換係数311とも呼ばれてもよい反量子化された係数311を取得するように構成されてもよい。逆量子化プロセスは、量子化の程度、及び同様に適用されるべき逆量子化の程度を決定するために、ビデオスライス(又はタイル若しくはタイルグループ)内の各ビデオブロックについてビデオエンコーダ20により決定された量子化パラメータの使用を含んでもよい。
Inverse Quantization Inverse quantization unit 310 extracts a quantization parameter (QP) (or inverse quantization in general) from encoded picture data 21 (e.g., by parsing and/or decoding by entropy decoding unit 304). information about quantization) and the quantized coefficients, and based on the quantization parameter, apply inverse quantization to the decoded quantized coefficients 309, also referred to as transform coefficients 311. It may be configured to obtain dequantized coefficients 311 . The inverse quantization process is determined by video encoder 20 for each video block within a video slice (or tile or group of tiles) to determine the degree of quantization, as well as the degree of inverse quantization to be applied. may include the use of a quantization parameter.

逆変換
逆変換処理ユニット312は、変換係数311とも呼ばれる反量子化された係数311を受信し、サンプルドメインにおいて再構成された残差ブロック213を取得するために反量子化された係数311に変換を適用するように構成されてもよい。再構成された残差ブロック213はまた、変換ブロック313とも呼ばれてもよい。変換は、逆変換、例えば、逆DCT、逆DST、逆整数変換又は概念的に同様の逆変換プロセスでもよい。逆変換処理ユニット312は、符号化ピクチャデータ21から(例えば、エントロピー復号ユニット304により例えばパース及び/又は復号することにより)変換パラメータ又は対応する情報を受信して、反量子化された係数311に適用されるべき変換を決定するように更に構成されてもよい。
Inverse Transform An inverse transform processing unit 312 receives dequantized coefficients 311, also called transform coefficients 311, and transforms them into dequantized coefficients 311 to obtain a reconstructed residual block 213 in the sample domain. may be configured to apply Reconstructed residual block 213 may also be referred to as transform block 313 . The transform may be an inverse transform, such as an inverse DCT, an inverse DST, an inverse integer transform, or a conceptually similar inverse transform process. Inverse transform processing unit 312 receives transform parameters or corresponding information from encoded picture data 21 (e.g., by parsing and/or decoding by entropy decoding unit 304) into dequantized coefficients 311. It may be further configured to determine the transformation to be applied.

再構成
再構成ユニット314(例えば、加算器又は合計器314)は、再構成された残差ブロック313を予測ブロック365に加算して、例えば、再構成された残差ブロック313のサンプル値と予測ブロック365のサンプル値とを加算することにより、サンプルドメインにおける再構成されたブロック315を取得するように構成されてもよい。
Reconstruction Reconstruction unit 314 (e.g., adder or summer 314) adds reconstructed residual block 313 to prediction block 365, e.g., the sample values of reconstructed residual block 313 and the prediction and the sample values of block 365 to obtain reconstructed block 315 in the sample domain.

フィルタリング
(コーディングループ内又はコーディングループの後のいずれかの)ループフィルタユニット320は、再構成されたブロック315をフィルタリングして、フィルタリングされたブロック321を取得するように、例えば、ピクセル遷移を円滑化するように或いはビデオ品質を改善するように構成される。ループフィルタユニット320は、デブロッキングフィルタ、サンプル適応オフセット(SAO, sample-adaptive offset)フィルタ又は1つ以上の他のフィルタ、例えば、適応ループフィルタ(ALF, adaptive loop filter)、ノイズ抑制フィルタ(NSF, noise suppression filter)又はこれらのいずれかの組み合わせのような1つ以上のループフィルタを含んでもよい。一例では、ループフィルタユニット220は、デブロッキングフィルタ、SAOフィルタ及びALFフィルタを含んでもよい。フィルタリングプロセスの順序は、デブロッキングフィルタ、SAO及びALFでもよい。他の例では、クロマスケーリングを伴うルママッピング(LMCS, luma mapping with chroma scaling)(すなわち、適応インループリシェーパ)と呼ばれるプロセスが追加される。このプロセスはデブロッキングの前に実行される。他の例では、デブロッキングフィルタプロセスはまた、内部サブブロックエッジ、例えば、アフィンサブブロックエッジ、ATMVPサブブロックエッジ、サブブロック変換(SBT, sub-block transform)エッジ及びイントラサブパーティション(ISP, intra sub-partition)エッジに適用されてもよい。ループフィルタユニット320はインループフィルタであるとして図3に示されるが、他の構成では、ループフィルタユニット320はポストループフィルタとして実現されてもよい。
filtering
A loop filter unit 320 (either in the coding loop or after the coding loop) filters the reconstructed block 315 to obtain a filtered block 321, eg smoothing pixel transitions. or to improve video quality. Loop filter unit 320 may include a deblocking filter, a sample-adaptive offset (SAO) filter, or one or more other filters, such as an adaptive loop filter (ALF), a noise suppression filter (NSF, noise suppression filter) or any combination of these. In one example, loop filter unit 220 may include a deblocking filter, an SAO filter and an ALF filter. The order of the filtering process may be deblocking filter, SAO and ALF. In another example, a process called luma mapping with chroma scaling (LMCS) (ie adaptive in-loop reshaper) is added. This process is performed before deblocking. In another example, the deblocking filter process also removes internal sub-block edges, e.g., affine sub-block edges, ATMVP sub-block edges, sub-block transform (SBT) edges and intra sub-partition (ISP, intra sub -partition) may be applied to edges. Although loop filter unit 320 is shown in FIG. 3 as being an in-loop filter, in other configurations loop filter unit 320 may be implemented as a post-loop filter.

復号ピクチャバッファ
ピクチャの復号ビデオブロック321は、次いで、他のピクチャのための後の動き補償のための参照ピクチャとして及び/又はそれぞれの表示の出力のために復号ピクチャ331を記憶する復号ピクチャバッファ330に記憶される。
Decoded Picture Buffer The decoded video block 321 of a picture then stores the decoded picture 331 as a reference picture for later motion compensation for other pictures and/or for output for respective displays. stored in

デコーダ30は、ユーザへの提示又は閲覧のために、例えば、出力312を介して復号ピクチャ331を出力するように構成される。 Decoder 30 is configured to output decoded picture 331 via output 312, for example, for presentation or viewing by a user.

予測
インター予測ユニット344は、インター予測ユニット244(特に、動き補償ユニット)と同一でもよく、イントラ予測ユニット354は、インター予測ユニット254と機能的に同一でもよく、パーティション及び/又は予測パラメータ又は符号化ピクチャデータ21から(例えば、エントロピー復号ユニット304により例えばパース及び/又は復号することにより)受信したそれぞれの情報に基づいて、分割又はパーティション判断及び予測を実行する。モード適用ユニット360は、再構成ピクチャ、ブロック又はそれぞれの(フィルタリングされた或いはフィルタリングされていない)サンプルに基づいて、ブロック毎に予測(イントラ又はインター予測)を実行して、予測ブロック365を取得するように構成されてもよい。
Prediction Inter-prediction unit 344 may be identical to inter-prediction unit 244 (particularly motion compensation unit), intra-prediction unit 354 may be functionally identical to inter-prediction unit 254, partition and/or prediction parameters or coding Based on respective information received from picture data 21 (eg, by parsing and/or decoding by entropy decoding unit 304), segmentation or partition decisions and predictions are performed. Mode application unit 360 performs block-by-block prediction (intra or inter prediction) based on reconstructed pictures, blocks or respective (filtered or unfiltered) samples to obtain predicted blocks 365. It may be configured as

ビデオスライスがイントラコーディングされた(I, intra-coded)スライスとしてコーディングされるとき、モード適用ユニット360のイントラ予測ユニット354は、シグナリングされたイントラ予測モード及び現在ピクチャの前に復号されたブロックからのデータに基づいて、現在ビデオスライスのピクチャブロックについて予測ブロック365を生成するように構成される。ビデオピクチャがインターコーディングされた(すなわち、B又はP)スライスとしてコーディングされるとき、モード適用ユニット360のインター予測ユニット344(例えば、動き補償ユニット)は、エントロピー復号ユニット304から受信した動きベクトル及び他のシンタックスエレメントに基づいて、現在ビデオスライスのビデオブロックについて予測ブロック365を生成するように構成される。インター予測では、予測ブロックは、参照ピクチャリストのうち1つの中の参照ピクチャのうち1つから生成されてもよい。ビデオデコーダ30は、DPB330に記憶された参照ピクチャに基づいて、デフォルト構成技術を使用して、参照フレームリスト、リスト0及びリスト1を構成してもよい。同じ又は同様のものが、スライス(例えば、ビデオスライス)に加えて或いはその代替として、タイルグループ(例えば、ビデオタイルグループ)及び/又はタイル(例えば、ビデオタイル)を使用する実施形態に或いはそれにより適用されてもよく、例えば、ビデオは、I、P又はBタイルグループ及び/又はタイルを使用してコーディングされてもよい。 When a video slice is coded as an intra-coded (I, intra-coded) slice, intra-prediction unit 354 of mode adaptation unit 360 uses the signaled intra-prediction mode and the predictions from previously decoded blocks of the current picture. Based on the data, it is configured to generate prediction blocks 365 for picture blocks of the current video slice. When a video picture is coded as an inter-coded (i.e., B or P) slice, an inter-prediction unit 344 (e.g., motion compensation unit) of mode application unit 360 receives motion vectors from entropy decoding unit 304 and other is configured to generate a prediction block 365 for the video block of the current video slice based on the syntax elements of . For inter prediction, a predictive block may be generated from one of the reference pictures in one of the reference picture lists. Video decoder 30 may construct the reference frame lists, List 0 and List 1, using default construction techniques based on reference pictures stored in DPB 330 . The same or similar may be applied to or by embodiments that use tile groups (eg, video tile groups) and/or tiles (eg, video tiles) in addition to or instead of slices (eg, video slices). may be applied, for example the video may be coded using I, P or B tile groups and/or tiles.

モード適用ユニット360は、動きベクトル又は関連情報及び他のシンタックスエレメントをパースすることにより、現在ビデオスライスのビデオブロックについて予測情報を決定するように構成され、復号されている現在ビデオブロックについて予測ブロックを生成するために予測情報を使用する。例えば、モード適用ユニット360は、受信したシンタックスエレメントのうちいくつかを使用して、ビデオスライスのビデオブロックをコーディングするために使用される予測モード(例えば、イントラ又はインター予測)、インター予測スライスタイプ(例えば、Bスライス、Pスライス又はGPBスライス)、スライスの参照ピクチャリストのうち1つ以上についての構成情報、スライスの各インター符号化ビデオブロックの動きベクトル、スライスの各インターコーディングされたビデオブロックについてのインター予測状態、及び現在ビデオスライス内のビデオブロックを復号するための他の情報を決定する。同じ又は同様の手法が、スライス(例えば、ビデオスライス)に加えて或いはその代替として、タイルグループ(例えば、ビデオタイルグループ)及び/又はタイル(例えば、ビデオタイル)を使用する実施形態に或いはそれにより適用されてもよく、例えば、ビデオは、I、P又はBタイルグループ及び/又はタイルを使用してコーディングされてもよい。 Mode application unit 360 is configured to determine prediction information for video blocks of the current video slice by parsing motion vectors or related information and other syntax elements, and predictive blocks for the current video block being decoded. Use prediction information to generate For example, mode application unit 360 uses some of the received syntax elements to determine the prediction mode (e.g., intra or inter prediction) used to code the video blocks of the video slice, the inter prediction slice type (e.g., B slice, P slice or GPB slice), configuration information for one or more of the slice's reference picture lists, motion vectors for each inter-coded video block of the slice, for each inter-coded video block of the slice and other information for decoding the video blocks in the current video slice. The same or similar techniques apply to or by embodiments that use tile groups (eg, video tile groups) and/or tiles (eg, video tiles) in addition to or instead of slices (eg, video slices). may be applied, for example the video may be coded using I, P or B tile groups and/or tiles.

図3に示すようなビデオデコーダ30の実施形態は、スライス(ビデオスライスとも呼ばれる)を使用することによりピクチャをパーティション及び/又は復号するように構成されてもよく、ピクチャは、(典型的には重複しない)1つ以上のスライスにパーティションされてもよく或いはこれを使用して復号されてもよく、各スライスは、1つ以上のブロック(例えば、CTU)又は1つ以上のブロックのグループ(例えば、タイル(H.265/HEVC及びVVC又はブリック(VVC))を含んでもよい。 An embodiment of video decoder 30 as shown in FIG. 3 may be configured to partition and/or decode pictures by using slices (also called video slices), where pictures are (typically may be partitioned into or decoded using one or more non-overlapping slices, each slice being one or more blocks (e.g., CTU) or groups of one or more blocks (e.g., , tiles (H.265/HEVC and VVC or bricks (VVC)).

図3に示すようなビデオデコーダ30の実施形態は、スライス/タイルグループ(ビデオタイルグループとも呼ばれる)及び/又はタイル(ビデオタイルとも呼ばれる)を使用することによりピクチャをパーティション及び/又は復号するように構成されてもよく、ピクチャは、(典型的には重複しない)1つ以上のスライス/タイルグループにパーティションされてもよく或いはこれを使用して復号されてもよく、各スライス/タイルグループは、例えば、1つ以上のブロック(例えば、CTU)又は1つ以上のタイルを含んでもよく、各タイルは、例えば長方形形状でもよく、1つ以上のブロック(例えば、CTU)、例えば完全な或いは部分的なブロックを含んでもよい。 An embodiment of video decoder 30, such as that shown in FIG. 3, is configured to partition and/or decode pictures by using slice/tile groups (also called video tile groups) and/or tiles (also called video tiles). A picture may be partitioned into or decoded using one or more (typically non-overlapping) slices/tile groups, each slice/tile group being: For example, it may include one or more blocks (eg, CTU) or one or more tiles, each tile may be, for example, rectangular in shape, and one or more blocks (eg, CTU), such as complete or partial. block.

ビデオデコーダ30の他の変形は、符号化ピクチャデータ21を復号するために使用できる。例えば、デコーダ30は、ループフィルタユニット320なしに、出力ビデオストリームを生成できる。例えば、非変換ベースのデコーダ30は、特定のブロック又はフレームについて、逆変換処理ユニット312なしに、残差信号を直接逆量子化できる。他の実現方式では、ビデオデコーダ30は、単一のユニットに結合された逆量子化ユニット310及び逆変換処理ユニット312を有することができる。 Other variations of video decoder 30 can be used to decode encoded picture data 21 . For example, decoder 30 can generate an output video stream without loop filter unit 320 . For example, non-transform-based decoder 30 can directly inverse quantize the residual signal without inverse transform processing unit 312 for a particular block or frame. In other implementations, video decoder 30 may have inverse quantization unit 310 and inverse transform processing unit 312 combined into a single unit.

エンコーダ20及びデコーダ30において、現在のステップの処理結果は更に処理され、次いで次のステップに出力されてもよいことが理解されるべきである。例えば、補間フィルタリング、動きベクトル導出又はループフィルタリングの後に、クリップ又はシフトのような更なる動作が、補間フィルタリング、動きベクトル導出又はループフィルタリングの処理結果に対して実行されてもよい。 It should be appreciated that in the encoder 20 and decoder 30 the processing result of the current step may be further processed and then output to the next step. For example, after interpolation filtering, motion vector derivation or loop filtering, further operations such as clipping or shifting may be performed on the result of interpolation filtering, motion vector derivation or loop filtering.

更なる動作は、現在ブロックの導出された動きベクトル(アフィンモードの制御点動きベクトル、アフィン、プラナー、ATMVPモードにおけるサブブロック動きベクトル、時間動きベクトル等を含むが、これらに限定されない)に適用されてもよい点に留意すべきである。例えば、動きベクトルの値は、その表現ビットに従って所定の範囲に制約される。動きベクトルの表現ビットがbitDepthである場合、範囲は-2^(bitDepth-1)~2^(bitDepth-1)-1であり、「^」は累乗を意味する。例えば、bitDepthが16に等しく設定された場合、範囲は-32768~32767であり、bitDepthが18に等しく設定された場合、範囲は-131072~131071である。例えば、導出された動きベクトルの値(例えば、1つの8×8ブロック内の4つの4×4サブブロックのMV)は、4つの4×4サブブロックのMVの整数部分の間の最大差が、1ピクセルよりも多くない等のNピクセルよりも多くないように制約される。ここで、bitDepthに従って動きベクトルを制約するための2つの方法を提供する。 Further operations are applied to the derived motion vectors of the current block (including but not limited to control point motion vectors in affine mode, affine, planar, sub-block motion vectors in ATMVP mode, temporal motion vectors, etc.). It should be noted that For example, motion vector values are constrained to a predetermined range according to their representation bits. If the motion vector representation bits are bitDepth, the range is -2^(bitDepth-1) to 2^(bitDepth-1)-1, where "^" means power. For example, if bitDepth is set equal to 16, the range is -32768 to 32767, and if bitDepth is set equal to 18, the range is -131072 to 131071. For example, the derived motion vector values (e.g., the MVs of four 4x4 sub-blocks within one 8x8 block) are such that the maximum difference between the integer parts of the MVs of the four 4x4 sub-blocks is , constrained to be no more than N pixels, such as no more than 1 pixel. Here we provide two methods to constrain motion vectors according to bitDepth.

図4は、本開示の実施形態によるビデオコーディングデバイス400の概略図である。ビデオコーディングデバイス400は、ここに説明するような開示の実施形態を実現するのに適する。実施形態では、ビデオコーディングデバイス400は、図1Aのビデオデコーダ30のようなデコーダ又は図1Aのビデオエンコーダ20のようなエンコーダでもよい。 FIG. 4 is a schematic diagram of a video coding device 400 according to an embodiment of the disclosure. Video coding device 400 is suitable for implementing the disclosed embodiments as described herein. In embodiments, video coding device 400 may be a decoder such as video decoder 30 of FIG. 1A or an encoder such as video encoder 20 of FIG. 1A.

ビデオコーディングデバイス400は、データを受信するための入口ポート410(又は入力ポート410)及び受信機ユニット(Rx)420と、データを処理するためのプロセッサ、論理ユニット又は中央処理装置(CPU, central processing unit)430と、データを送信するための送信機ユニット(Tx)440及び出口ポート450(又は出力ポート450)と、データを記憶するためのメモリ460とを含む。ビデオコーディングデバイス400はまた、光若しくは電気信号の出口又は入口のための、入口ポート410、受信機ユニット420、送信機ユニット440及び出口ポート450に結合された光電気(OE, optical-to-electrical)コンポーネント及び電気光(EO, electrical-to-optical)コンポーネントを含んでもよい。 Video coding device 400 includes entry port 410 (or input port 410) and receiver unit (Rx) 420 for receiving data, and a processor, logic unit or central processing unit (CPU) for processing data. unit) 430, transmitter unit (Tx) 440 and exit port 450 (or output port 450) for transmitting data, and memory 460 for storing data. Video coding device 400 also includes optical-to-electrical (OE) coupled to entry port 410, receiver unit 420, transmitter unit 440 and exit port 450 for the egress or ingress of optical or electrical signals. ) components and electrical-to-optical (EO) components.

プロセッサ430は、ハードウェア及びソフトウェアにより実現される。プロセッサ430は、1つ以上のCPUチップ、コア(例えば、マルチコアプロセッサ)、FPGA、ASIC及びDSPとして実現されてもよい。プロセッサ430は、入口ポート410、受信機ユニット420、送信機ユニット440、出口ポート450及びメモリ460と通信する。プロセッサ430は、コーディングモジュール470を含む。コーディングモジュール470は、上記に記載する開示の実施形態を実現する。例えば、コーディングモジュール470は、様々なコーディング動作を実現、処理、準備又は提供する。したがって、コーディングモジュール470に含まれるものは、ビデオコーディングデバイス400の機能に実質的な改善を提供し、異なる状態へのビデオコーディングデバイス400の変換をもたらす。代替として、コーディングモジュール470は、メモリ460に記憶されてプロセッサ430により実行される命令として実現される。 Processor 430 is implemented in hardware and software. Processor 430 may be implemented as one or more CPU chips, cores (eg, multi-core processors), FPGAs, ASICs, and DSPs. Processor 430 communicates with ingress port 410 , receiver unit 420 , transmitter unit 440 , egress port 450 and memory 460 . Processor 430 includes coding module 470 . Coding module 470 implements the disclosed embodiments described above. For example, coding module 470 implements, processes, prepares, or provides various coding operations. Accordingly, what is included in coding module 470 provides substantial improvements in the functionality of video coding device 400, resulting in conversion of video coding device 400 to different states. Alternatively, coding module 470 is implemented as instructions stored in memory 460 and executed by processor 430 .

メモリ460は、1つ以上のディスク、テープドライブ及びソリッドステートドライブを含んでもよく、プログラムが実行のために選択されるときこのようなプログラムを記憶するため且つプログラムの実行中に読み取られる命令及びデータを記憶するためのオーバフローデータ記憶デバイスとして使用されてもよい。メモリ460は、例えば、揮発性及び/又は不揮発性でもよく、読み取り専用メモリ(ROM, read-only memory)、ランダムアクセスメモリ(RAM, random access memory)、三値連想メモリ(TCAM, ternary content-addressable memory)及び/又はスタティックランダムアクセスメモリ(SRAM, static random-access memory)でもよい。 Memory 460, which may include one or more disks, tape drives and solid state drives, stores instructions and data for storing such programs when the programs are selected for execution and for reading during execution of the programs. may be used as an overflow data storage device for storing Memory 460 may be, for example, volatile and/or non-volatile and may include read-only memory (ROM), random access memory (RAM), ternary content-addressable memory (TCAM), and so on. memory) and/or static random-access memory (SRAM).

図5は、例示的な実施形態による図1Aからのソースデバイス12及び宛先デバイス14の一方又は双方として使用されてもよい装置500の簡略ブロック図である。 FIG. 5 is a simplified block diagram of apparatus 500 that may be used as one or both of source device 12 and destination device 14 from FIG. 1A, according to an exemplary embodiment.

装置500内のプロセッサ502は、中央処理装置とすることができる。代替として、プロセッサ502は、現在存在するか或いは今後開発される、情報を操作又は処理できるいずれかの他のタイプのデバイス又は複数のデバイスとすることができる。開示の実現方式は図示のように単一のプロセッサ、例えばプロセッサ502で実施できるが、速度及び効率における利点は、1つよりも多くのプロセッサを使用して達成できる。 Processor 502 in device 500 may be a central processing unit. Alternatively, processor 502 may be any other type of device or devices, now existing or later developed, capable of manipulating or processing information. Although the disclosed implementations can be implemented in a single processor, such as processor 502, as shown, advantages in speed and efficiency can be achieved using more than one processor.

装置500内のメモリ504は、実現方式では、読み取り専用メモリ(ROM, read only memory)デバイス又はランダムアクセスメモリ(RAM, random access memory)デバイスとすることができる。いずれかの他の適切なタイプの記憶デバイスが、メモリ504として使用できる。メモリ504は、バス512を使用してプロセッサ502によりアクセスされるコード及びデータ506を含むことができる。メモリ504は、オペレーティングシステム508及びアプリケーションプログラム510を更に含むことができ、アプリケーションプログラム510は、プロセッサ502がここに記載の方法を実行することを可能にする少なくとも1つのプログラムを含む。例えば、アプリケーションプログラム510は、ここに記載の方法を実行するビデオコーディングアプリケーションを更に含むアプリケーション1~Nを含むことができる。 The memory 504 in the device 500 can be a read only memory (ROM) device or a random access memory (RAM) device in implementations. Any other suitable type of storage device can be used as memory 504 . Memory 504 may contain code and data 506 that are accessed by processor 502 using bus 512 . Memory 504 may further include an operating system 508 and application programs 510, including at least one program that enables processor 502 to perform the methods described herein. For example, application programs 510 may include applications 1-N, which further include video coding applications that perform the methods described herein.

装置500はまた、ディスプレイ518のような1つ以上の出力デバイスを含むことができる。ディスプレイ518は、一例では、タッチ入力を感知するよう動作可能なタッチセンシティブ素子とディスプレイを結合したタッチセンシティブディスプレイでもよい。ディスプレイ518は、バス512を介してプロセッサ502に結合できる。 Apparatus 500 may also include one or more output devices, such as display 518 . Display 518, in one example, may be a touch-sensitive display that combines the display with a touch-sensitive element operable to sense touch input. A display 518 can be coupled to processor 502 via bus 512 .

ここでは単一のバスとして示されるが、装置500のバス512は複数のバスで構成できる。さらに、2次ストレージ514は、装置500の他のコンポーネントに直接結合でき、或いは、ネットワークを介してアクセスでき、メモリカードのような単一の統合ユニット又は複数のメモリカードのような複数のユニットを含むことができる。したがって、装置500は、広範な構成で実現できる。 Although shown here as a single bus, bus 512 of device 500 may comprise multiple buses. Further, secondary storage 514 can be directly coupled to other components of device 500 or can be accessed over a network and can be a single integrated unit such as a memory card or multiple units such as multiple memory cards. can contain. Accordingly, device 500 can be implemented in a wide variety of configurations.

クロミナンス残差のジョイントコーディング(JVET-M0305)
クロミナンス残差のジョイントコーディングは、単一のジョイント残差ブロックが同じ変換ユニット内のCb及びCrブロックの双方の残差を記述するために使用されるクロミナンス残差コーディングモードを提案する。ジョイント残差モードがアクティブであるとき、示されたジョイント残差はCb予測ブロックに加えられ、Cr予測ブロックから差し引かれる。エンコーダ側では、アルゴリズムは、変換及び量子化プロセスへの入力として、正のCb残差と負のCr残差との平均を使用する。
Joint Coding of Chrominance Residuals (JVET-M0305)
Joint coding of chrominance residuals proposes a chrominance residual coding mode in which a single joint residual block is used to describe the residuals of both Cb and Cr blocks within the same transform unit. When joint residual mode is active, the indicated joint residual is added to the Cb prediction block and subtracted from the Cr prediction block. On the encoder side, the algorithm uses the average of the positive Cb and negative Cr residuals as input to the transform and quantization process.

Cb及びCrのジョイントコーディングの概念は、Cb及びCr残差が互いに逆に相関するという事実に基づく。このモードでは、変換ユニットの2つのクロミナンスブロックについて示される単一の残差が存在する。示された残差は、第1のチャネル(典型的にはCbを表す)内の予測ブロックに加えられ、第2のチャネル(典型的にはCrを表す)内の予測ブロックから差し引かれる。 The concept of joint coding of Cb and Cr is based on the fact that Cb and Cr residuals are inversely correlated with each other. In this mode there is a single residual shown for the two chrominance blocks of the transform unit. The indicated residuals are added to the predicted block in the first channel (typically representing Cb) and subtracted from the predicted block in the second channel (typically representing Cr).

Cb及びCrの双方についてのコーディング済ブロックフラグ(cbf, coded block flag)が真である場合、ジョイント残差モードは、ビットストリーム内のフラグで示される。モードが活性化された場合、単一の残差ブロックが復号される。ジョイント残差ブロックのビットストリームシンタックス及び復号プロセスは、VTM-3におけるCb残差のものに従う。Crブロックの残差は、復号されたジョイント残差を打ち消すことにより生成される。単一の残差が2つのブロックの残差を表すために使用されるので、クロマQPオフセットパラメータは、ジョイントクロミナンス残差モードがアクティブであるとき、2だけ低減される。 The joint residual mode is indicated by a flag in the bitstream if the coded block flag (cbf) for both Cb and Cr is true. If the mode is activated, a single residual block is decoded. The bitstream syntax and decoding process of joint residual block follows that of Cb residual in VTM-3. The Cr block residual is generated by canceling the decoded joint residual. Since a single residual is used to represent the residual of two blocks, the chroma QP offset parameter is reduced by 2 when joint chrominance residual mode is active.

エンコーダ側では、正のCb残差と負のCr残差との平均がジョイント残差として使用される。
resJoint=(resCb-resCr)/2
On the encoder side, the average of positive Cb residual and negative Cr residual is used as joint residual.
resJoint=(resCb-resCr)/2

多重モードでのジョイントクロマ残差コーディング(JVET-N0282)
多重モードでのジョイントクロマ残差コーディングは、JVET-M0305で提案されているジョイントクロマ残差コーディングの拡張である。1つのジョイントクロマ残差コーディングモード(Cr=-Cbにより与えられる)の追加が提案されているJVET-M0305とは対照的に、この寄与は、異なる混合ファクタで、ジョイントクロマ残差コーディングについて3つのモード(Cr=±Cb/2、Cr=±Cb、Cb=±Cr/2により与えられる)を提案する。第2のクロマ残差を導出するために使用される符号は、タイルグループヘッダにおいてコーディングされる。ジョイントクロマコーディングモードの使用はTUレベルのフラグにより示され、選択されたモードは、クロマコーディング済ブロックフラグにより暗示的に示される。
Joint Chroma Residual Coding with Multimodes (JVET-N0282)
Joint chroma residual coding in multiple modes is an extension of joint chroma residual coding proposed in JVET-M0305. In contrast to JVET-M0305, where the addition of one joint chroma residual coding mode (given by Cr=−Cb) is proposed, this contribution is divided into three for joint chroma residual coding with different mixing factors. Modes (given by Cr=±Cb/2, Cr=±Cb, Cb=±Cr/2) are proposed. The code used to derive the second chroma residual is coded in the tile group header. The use of joint chroma-coding mode is indicated by a TU-level flag, and the selected mode is implicitly indicated by the chroma-coded block flag.

ジョイントクロマ残差コーディングのための3つのモードがサポートされる。これらの3つのジョイントクロマ残差コーディングモードの全てにおいて、単一のクロマ変換ブロックが(VTM4の残差コーディングを使用して)コーディングされ、クロマ残差サンプルの他のブロックは簡単な算術演算を使用して導出される。 Three modes for joint chroma residual coding are supported. In all of these three joint chroma residual coding modes, a single chroma transform block is coded (using VTM4 residual coding) and other blocks of chroma residual samples use simple arithmetic operations. is derived as

以下の3つのジョイントクロマコーディングモードがサポートされる。
モード1:Cbがコーディングされ、CrがCr=CSign*Cb/2に従って導出される
モード2:Cbがコーディングされ、CrがCr=CSign*Cbに従って導出される
モード3:Crがコーディングされ、CbがCb=CSign*Cr/2に従って導出される
ここで、CSignは、第2のクロマ残差ブロックを導出するために使用される符号を表す。CSignは、タイルグループヘッダシンタックスエレメントを使用して示され、これは-1又は1のいずれかである。CSignが-1に等しい場合、モード2はJVET-M0305で提案されているジョイントクロマコーディングモードと同じである点に留意する。
Three joint chroma coding modes are supported:
Mode 1: Cb is coded and Cr is derived according to Cr=CSign*Cb/2 Mode 2: Cb is coded and Cr is derived according to Cr=CSign*Cb Mode 3: Cr is coded and Cb is derived Cb=CSign*Cr/2 where CSign represents the code used to derive the second chroma residual block. CSign is indicated using the Tile Group Header syntax element, which is either -1 or 1. Note that if CSign is equal to -1, mode 2 is the same as the joint chroma coding mode proposed in JVET-M0305.

ジョイントクロマ残差コーディングの使用は、TUレベルのフラグtu_joint_chroma_residual_flagにより示される。このフラグは、2つのクロマコーディング済ブロックフラグ(CBF, coded block flag)シンタックスエレメントのいずれか又は双方が1に等しい場合に存在する。tu_joint_chroma_residual_flagが1に等しい場合、ジョイントクロマ残差コーディングモードのうち1つが使用される。使用されるモードは、以下の表に指定されるように、クロマCBFにより示される。

Figure 0007328446000021
The use of joint chroma residual coding is indicated by the TU level flag tu_joint_chroma_residual_flag. This flag is present if either or both of the two chroma coded block flag (CBF) syntax elements are equal to one. If tu_joint_chroma_residual_flag is equal to 1, then one of the joint chroma residual coding modes is used. The mode used is indicated by Chroma CBF, as specified in the table below.
Figure 0007328446000021

ジョイントクロマコーディングモードが選択された場合、ジョイントクロマ成分をコーディングするためのQPは、1(モード1及び3の場合)又は2(モード2の場合)だけ減少する。 If the joint chroma coding mode is selected, the QP for coding the joint chroma components is reduced by 1 (for modes 1 and 3) or 2 (for mode 2).

エンコーダ側では、Cb及びCr残差の対応するダウンミキシングにより、ジョイントクロマ残差が導出される。3つのサポートされるクロマコーディングモードのうち1つは、混合歪み(すなわち、最初にCb及びCr残差をダウンミキシングし、次いで、量子化なしにジョイントクロマ残差からCb及びCr残差を再構成又はアップミキシングすることにより取得された歪み)の最小化に基づいて予め選択される。予め選択されたモードのみが、モード判定プロセスにおける更なるモードとしてテストされる(すなわち、変換、量子化及びエントロピーコーディングを使用する)。各TUについて1つの候補モードの低い複雑性の事前選択のため、符号化時間はJVET-M0305に対して実質的に変化しない。 On the encoder side, the joint chroma residual is derived by corresponding downmixing of the Cb and Cr residuals. One of the three supported chroma coding modes is mixed distortion (i.e., downmixing the Cb and Cr residuals first, then reconstructing the Cb and Cr residuals from the joint chroma residuals without quantization). or distortion obtained by upmixing). Only preselected modes are tested as further modes in the mode determination process (ie using transform, quantization and entropy coding). Due to the low-complexity pre-selection of one candidate mode for each TU, the encoding time does not change substantially for JVET-M0305.

第2のクロマ成分を導出するための符号(CSign)を示すタイルグループヘッダシンタックスエレメントは、タイルグループについての元のCb及びCr成分の高域通過フィルリングされたバージョンの間の相関を分析することにより決定される。 A tile group header syntax element indicating the sign (CSign) for deriving the second chroma component analyzes the correlation between the high-pass filtered versions of the original Cb and Cr components for the tile group. determined by

ジョイントクロマ残差コーディング
テストCE7-2.1/2は、JVET-M0305において最初に記述されたジョイントクロマ残差コーディング技術の拡張を、より広範囲のジョイントコーディングパラメータ及びモードを提供することにより議論する。具体的には、以下が議論されている。
Joint Chroma Residual Coding Test CE7-2.1/2 discusses an extension of the joint chroma residual coding technique originally described in JVET-M0305 by providing a wider range of joint coding parameters and modes. Specifically, the following are discussed.

1)CE7-2.1:JVET-N0282構成1のように、クロマコーディング済ブロックフラグ(CBF, chroma coded block flag)シンタックスエレメントを使用してシグナリングされる、1つのジョイントクロマコーディングモードの代わりに3つを可能にすることによるVTM5.0の拡張。これらのコーディングモードは、表1に示すように、簡略化されたクロス成分回転変換を適用する。 1) Three instead of one joint chroma coding mode, signaled using the chroma coded block flag (CBF) syntax element, as in CE7-2.1: JVET-N0282 construct 1 Extending VTM 5.0 by enabling These coding modes apply a simplified cross-component rotation transform, as shown in Table 1.

2)CE7-2.2:CE7-2.1と同様であるが、CBFCb=1、CBFCr=1を介してシグナリングされるジョイントクロマコーディングモードの場合に、(1つのみの代わりに)2つのジョイントクロマコーディング残差信号が送信されることを可能にする。このモードに関連する回転変換は、アダマール変換を表す(表2を参照する)。 2) CE7-2.2: As for CE7-2.1, but for joint chroma coding mode signaled via CBF Cb =1, CBF Cr =1, two joint chroma coding modes (instead of only one) Allow the coding residual signal to be transmitted. The rotation transform associated with this mode represents the Hadamard transform (see Table 2).

クロマ残差の規範的な再構成
したがって、1つの単一チャネルのジョイントクロマ残差コーディングモード(Cr=-Cbにより与えられる)の追加が提案されているM0305とは対照的に、拡張において、異なる混合ファクタでジョイントクロマ残差コーディングについて3つのモードがサポートされる。当該モードは、スライスヘッダでコーディングされる第2のクロマ残差を導出するために使用される符号(すなわち、JVET-N0282におけるジョイント復号重みの符号CSign)により更に特徴付けられる。ジョイントクロマコーディングモードの使用(活性化)はTUレベルのフラグtu_joint_cbcr_residual_flagにより示され、選択されたモードは、クロマCBFにより暗示的に示される。TUについてのクロマCBFのいずれか又は双方が1である場合、フラグtu_joint_cbcr_residual_flagが存在する。
Normative Reconstruction of Chroma Residuals Thus, in extension, in contrast to M0305, where the addition of one single-channel joint chroma residual coding mode (given by Cr=−Cb) is proposed, different Three modes are supported for joint chroma residual coding with mixed factors. This mode is further characterized by the code (ie, joint decoding weight code CSign in JVET-N0282) used to derive the second chroma residual that is coded in the slice header. The use (activation) of the joint chroma coding mode is indicated by the TU level flag tu_joint_cbcr_residual_flag and the selected mode is implicitly indicated by the chroma CBF. The flag tu_joint_cbcr_residual_flag is present if either or both of the chroma CBFs for the TU are 1.

VTM5.0と同様に、特定のジョイントクロマコーディングモードで具体的に使用するためのクロマQPオフセット(スライスレベルでコーディングされる)がシグナリングできる。対応するジョイントクロマコーディングモード(以下の説明におけるモード2及び4)がTU内でアクティブであるとき、このクロマQPオフセットは、そのTUの量子化及び復号の間に、適用されたルマ導出のクロマQPに追加される。他のモード(以下の説明におけるモード1及び3)について、クロマQPは従来のCb又はCrブロックと同じ方法で導出される。 Similar to VTM 5.0, a chroma QP offset (coded at slice level) can be signaled for specific use in a particular joint chroma coding mode. When the corresponding joint chroma coding mode (modes 2 and 4 in the description below) is active in a TU, this chroma QP offset is the applied luma-derived chroma QP during quantization and decoding of that TU. added to. For the other modes (modes 1 and 3 in the discussion below), the chroma QPs are derived in the same way as for conventional Cb or Cr blocks.

送信された変換ブロック(resJointC、又はCE7-2.2ではresJointC1及びresJointC2)からのクロマ残差(resCb及びresCr)の規範的な再構成プロセスは、以下の表に要約される。

Figure 0007328446000022
A canonical reconstruction process of the chroma residuals (resCb and resCr) from the transmitted transform block (resJointC, or resJointC1 and resJointC2 in CE7-2.2) is summarized in the table below.
Figure 0007328446000022

エンコーダにおけるジョイントクロマ残差の非規範的な決定
調査したエンコーダの実現方式では、以下に説明するようにジョイントクロマ成分が導出される。モード(上記の表に列挙される)に依存して、resJointC{1,2}は以下のようにエンコーダにより生成される。
Non-Normative Determination of Joint Chroma Residuals in Encoders In the encoder implementations investigated, joint chroma components are derived as described below. Depending on the mode (listed in the table above), resJointC{1,2} is generated by the encoder as follows.

・モードが4に等しい場合(アダマール変換、2つの残差が送信される)、ジョイント残差は以下に従って決定される。
resJointC1[x][y]=(resCb[x][y]+CSign*resCr[x][y])/2
resJointC2[x][y]=(resCb[x][y]-CSign*resCr[x][y])/2
• If mode equals 4 (Hadamard transform, 2 residuals are transmitted), the joint residual is determined according to:
resJointC1[x][y]=(resCb[x][y]+CSign*resCr[x][y])/2
resJointC2[x][y]=(resCb[x][y]-CSign*resCr[x][y])/2

・そうでなく、モードが2に等しい場合(再構成Cb=C、Cr=CSsign*Cによる単一の残差)、ジョイント残差は以下に従って決定される。
resJointC[x][y]=(resCb[x][y]+CSign*resCr[x][y])/2
• Otherwise, if the mode is equal to 2 (single residual with reconstruction Cb=C, Cr=CSsign*C), the joint residual is determined according to
resJointC[x][y]=(resCb[x][y]+CSign*resCr[x][y])/2

・そうでなく、モードが1に等しい場合(再構成Cb=C、Cr=(CSign*C)/2による単一の残差)、ジョイント残差は以下に従って決定される。
resJointC[x][y]=(4*resCb[x][y]+2*CSign*resCr[x][y])/5
• Otherwise, if the mode is equal to 1 (single residual with reconstruction Cb=C, Cr=(CSign*C)/2), the joint residual is determined according to
resJointC[x][y]=(4*resCb[x][y]+2*CSign*resCr[x][y])/5

・そうでない場合、(モードが3に等しい、すなわち、単一の残差、再構成Cr=C、Cb=(CSign*C)/2)、ジョイント残差は以下に従って決定される。
resJointC[x][y]=(4*resCr[x][y]+2*CSign*resCb[x][y])/5
• Otherwise (mode equals 3, ie single residual, reconstructed Cr=C, Cb=(CSign*C)/2), the joint residual is determined according to:
resJointC[x][y]=(4*resCr[x][y]+2*CSign*resCb[x][y])/5

どのようにエンコーダがTUに関するジョイントモードを選択するかに関する更なる詳細は、JVET-N0282のSec. 2.4において与えられている。 Further details on how the encoder selects joint modes for TUs are given in Sec. 2.4 of JVET-N0282.

本開示の第1の実施形態
本開示の第1の実施形態では、クロミナンス成分についてのPPS及びスライスヘッダQPオフセットのシグナリングは、以下の表に従って互いに独立して実行される。

Figure 0007328446000023
Figure 0007328446000024
First Embodiment of the Present Disclosure In the first embodiment of the present disclosure, signaling of PPS and slice header QP offsets for chrominance components is performed independently of each other according to the following table.
Figure 0007328446000023
Figure 0007328446000024

ここで、pic_parameter_set_rbspは、ピクチャパラメータセットRBSPシンタックスを示し、
pps_cb_qp_offset及びpps_cr_qp_offsetは、それぞれQp'Cb及びQp'Crを導出するために使用されるルマ量子化パラメータQp'Yへのオフセットを指定し、
pps_cb_qp_offset及びpps_cr_qp_offsetの値は、-12以上+12以下の範囲にあり、
sps_croma_format_idcが0に等しいとき、pps_cb_qp_offset及びpps_cr_qp_offsetは、復号プロセスにおいて使用されず、デコーダはこれらの値を無視するものとし、
存在しないとき、pps_cb_qp_offset及びpps_cr_qp_offsetの値は0に等しいと推定され、
1に等しいsps_joint_cbcr_enabled_flagは、クロマ残差のジョイントコーディングがコーディング済レイヤビデオシーケンス(CLVS, coded layer video sequence)について有効であることを指定し、
0に等しいsps_joint_cbcr_enabled_flagは、クロマ残差のジョイントコーディングがCLVSについて無効であることを指定し、
存在しないとき、sps_joint_cbcr_enabled_flagの値は、0に等しいと推定される。
pps_joint_cbcr_qp_offset_valueは、Qp'CbCrを導出するために使用されるルマ量子化パラメータQp'Yへのオフセットを指定し、
pps_joint_cbcr_qp_offset_valueの値は、-12以上+12以下の範囲にある。
where pic_parameter_set_rbsp indicates the picture parameter set RBSP syntax,
pps_cb_qp_offset and pps_cr_qp_offset specify the offset to the luma quantization parameter Qp'Y used to derive Qp'Cb and Qp'Cr , respectively;
The values of pps_cb_qp_offset and pps_cr_qp_offset are in the range of -12 to +12,
When sps_chroma_format_idc is equal to 0, pps_cb_qp_offset and pps_cr_qp_offset are not used in the decoding process and the decoder shall ignore these values,
When absent, the values of pps_cb_qp_offset and pps_cr_qp_offset are assumed to be equal to 0,
sps_joint_cbcr_enabled_flag equal to 1 specifies that joint coding of chroma residuals is enabled for the coded layer video sequence (CLVS);
sps_joint_cbcr_enabled_flag equal to 0 specifies that joint coding of chroma residuals is disabled for CLVS,
When absent, the value of sps_joint_cbcr_enabled_flag is assumed to be equal to 0.
pps_joint_cbcr_qp_offset_value specifies the offset to the luma quantization parameter Qp' Y used to derive Qp' CbCr ,
The value of pps_joint_cbcr_qp_offset_value is in the range between -12 and +12.

従来技術では、フラグpps_slice_chroma_qp_offsets_present_flagは、PPSレベルシンタックスでシグナリングされ、これは、スライスヘッダでシグナリングするいずれかの更なるオフセットが存在するか否かを制御し、すなわち、デコーダ側では、デコーダは、スライスヘッダでシグナリングされるいずれかの更なるオフセットが存在するか否かを決定するために、pps_slice_chroma_qp_offsets_present_flagの値を検査する必要がある。従来技術と比較すると、第1の実施形態では、フラグpps_slice_chroma_qp_offsets_present_flagは、もはやシグナリングされず、言い換えると、常にスライスヘッダでシグナリングされるオフセットが存在し、したがって、デコーダは、pps_slice_chroma_qp_offsets_present_flagの値を検査せずに、スライスヘッダでシグナリングされる更なるオフセットが存在することを知っており、言い換えると、PPSレベルシンタックス及びスライスヘッダシンタックスは双方ともに常にオフセットを含む。したがって、スライスヘッダにおけるクロミナンスQPオフセットの復号/シグナリングはより簡単になる。 In the prior art, the flag pps_slice_chroma_qp_offsets_present_flag is signaled in the PPS level syntax, which controls whether there are any further offsets signaling in the slice header, i. The value of pps_slice_chroma_qp_offsets_present_flag should be checked to determine if there are any further offsets signaled in the header. Compared to the prior art, in the first embodiment, the flag pps_slice_chroma_qp_offsets_present_flag is no longer signaled, in other words there is always an offset signaled in the slice header, so the decoder does not check the value of pps_slice_chroma_qp_offsets_present_flag. , knowing that there is an additional offset signaled in the slice header, in other words both the PPS level syntax and the slice header syntax always contain the offset. Decoding/signaling of the chrominance QP offsets in the slice header is therefore easier.

本開示の第2の実施形態
本開示の第2の実施形態では、JCCRモードのためのクロミナンス成分についてのPPS及びスライスヘッダQPオフセットのシグナリング、並びにJCCRコーディングモードのためのSPSクロママッピング情報のシグナリングが、以下の表に従ってSPS JCCR制御フラグに依存して実行される。例えば、sps JCCR制御フラグは、SPSレベルシンタックス(例えば、seq_parameter_set_rbspシンタックス)でシグナリングされるsps_joint_cbcr_enabled_flagである。

Figure 0007328446000025
Second Embodiment of the Present Disclosure In a second embodiment of the present disclosure, signaling of PPS and slice header QP offsets for chrominance components for JCCR mode and signaling of SPS chroma mapping information for JCCR coding mode are , is executed depending on the SPS JCCR control flags according to the table below. For example, the sps JCCR control flag is sps_joint_cbcr_enabled_flag signaled in SPS level syntax (eg, seq_parameter_set_rbsp syntax).
Figure 0007328446000025

「i」の値は、sps_joint_cbcr_enabled_flagの値に基づいて決定され、したがって、JCCRツールが無効であるとき、JCCRシンタックスエレメントの冗長なシグナリングが回避できることが認識できる。

Figure 0007328446000026
The value of 'i' is determined based on the value of sps_joint_cbcr_enabled_flag, thus recognizing that redundant signaling of JCCR syntax elements can be avoided when JCCR tools are disabled.
Figure 0007328446000026

pps_joint_cbcr_qp_offsetのシグナリング/復号は、sps_joint_cbcr_enabled_flagに依存し、すなわち、sps_joint_cbcr_enabled_flagの値が真(例えば、1)であるときにのみ、pps_joint_cbcr_qp_offsetがシグナリングされるか或いは復号できることが認識できる。pps_joint_cbcr_qp_offsetの条件付きシグナリングのため、より少ない情報がシグナリングされる必要があり、したがって、リソースを節約できる。

Figure 0007328446000027
It can be recognized that the signaling/decoding of pps_joint_cbcr_qp_offset depends on sps_joint_cbcr_enabled_flag, ie pps_joint_cbcr_qp_offset can be signaled or decoded only when the value of sps_joint_cbcr_enabled_flag is true (eg, 1). Due to the conditional signaling of pps_joint_cbcr_qp_offset, less information needs to be signaled, thus saving resources.
Figure 0007328446000027

ここで、1に等しいsps_joint_cbcr_enabled_flagは、クロマ残差のジョイントコーディングがコーディング済レイヤビデオシーケンス(CLVS, coded layer video sequence)について有効であることを指定し、0に等しいsps_joint_cbcr_enabled_flagは、クロマ残差のジョイントコーディングがコードレイヤビデオシーケンスについて無効であることを指定し、存在しないとき、sps_joint_cbcr_enabled_flagの値は0に等しいと推定される点に留意すべきである。 where sps_joint_cbcr_enabled_flag equal to 1 specifies that joint coding of chroma residuals is enabled for the coded layer video sequence (CLVS), and sps_joint_cbcr_enabled_flag equal to 0 specifies that joint coding of chroma residuals is enabled. specifies that is disabled for the code layer video sequence, and when absent, the value of sps_joint_cbcr_enabled_flag is assumed to be equal to zero.

seq_parameter_set_rbspは、シーケンスパラメータセットの未加工バイトシーケンスペイロード(RBSP, Raw Byte Sequence Payload)シンタックスを示し、sps_num_points_in_qp_table_minus1[i]に1を加えたものは、第iのクロマQPマッピングテーブルを記述するために使用される点の数を指定し、sps_num_points_in_qp_table_minus1[i]の値は、0から36の範囲にあり、存在しないとき、sps_num_points_in_qp_table_minus1[0]の値は0に等しいと推定される点に更に留意すべきである。 seq_parameter_set_rbsp indicates the Raw Byte Sequence Payload (RBSP) syntax for the sequence parameter set, sps_num_points_in_qp_table_minus1[i] plus 1 is used to describe the ith chroma QP mapping table It should also be noted that the value of sps_num_points_in_qp_table_minus1[i] ranges from 0 to 36, and that when absent, the value of sps_num_points_in_qp_table_minus1[0] is assumed to be equal to 0. be.

以下は、上記の実施形態に示す符号化方法及び復号方法の適用と、これらを使用するシステムとの説明である。 The following is a description of the application of the encoding and decoding methods shown in the above embodiments and systems using them.

図6は、コンテンツ配信サービスを実現するためのコンテンツ供給システム3100を示すブロック図である。このコンテンツ供給システム3100は、キャプチャデバイス3102、端末デバイス3106を含み、任意選択でディスプレイ3126を含む。キャプチャデバイス3102は、通信リンク3104上で端末デバイス3106と通信する。通信リンクは、上記の通信チャネル13を含んでもよい。通信リンク3104は、WIFI、イーサネット、ケーブル、無線(3G/4G/5G)、USB又はこれらのいずれかの種類の組み合わせ等を含むが、これらに限定されない。 FIG. 6 is a block diagram showing a content supply system 3100 for realizing a content distribution service. This content delivery system 3100 includes a capture device 3102 , a terminal device 3106 and optionally a display 3126 . Capture device 3102 communicates with terminal device 3106 over communication link 3104 . The communication link may include the communication channel 13 described above. Communication link 3104 includes, but is not limited to, WIFI, Ethernet, cable, wireless (3G/4G/5G), USB or any combination of these types.

キャプチャデバイス3102は、データを生成し、上記の実施形態に示すような符号化方法によりデータを符号化してもよい。代替として、キャプチャデバイス3102は、データをストリーミングサーバ(図面に図示せず)に配信してもよく、サーバは、データを符号化し、符号化データを端末デバイス3106に送信する。キャプチャデバイス3102は、カメラ、スマートフォン若しくはパッド、コンピュータ若しくはラップトップ、ビデオ会議システム、PDA、車載デバイス又はこれらのうちいずれかの組み合わせ等を含むが、これらに限定されない。例えば、キャプチャデバイス3102は、上記のようなソースデバイス12を含んでもよい。データがビデオを含むとき、キャプチャデバイス3102に含まれるビデオエンコーダ20は、実際に、ビデオ符号化処理を実行してもよい。データがオーディオ(すなわち、音声)を含むとき、キャプチャデバイス3102に含まれるオーディオエンコーダは、実際に、オーディオ符号化処理を実行してもよい。いくつかの実際のシナリオでは、キャプチャデバイス3102は、符号化ビデオ及びオーディオデータを、これらを一緒に多重化することにより配信する。他の実際のシナリオでは、例えば、ビデオ会議システムにおいて、符号化オーディオデータ及び符号化ビデオデータは多重化されない。キャプチャデバイス3102は、符号化オーディオデータ及び符号化ビデオデータを端末デバイス3106に別個に配信する。 The capture device 3102 may generate data and encode the data by encoding methods such as those shown in the embodiments above. Alternatively, the capture device 3102 may deliver the data to a streaming server (not shown in the drawing), which encodes the data and transmits the encoded data to the terminal device 3106. Capture devices 3102 include, but are not limited to, cameras, smart phones or pads, computers or laptops, video conferencing systems, PDAs, in-vehicle devices, or any combination thereof. For example, capture device 3102 may include source device 12 as described above. When the data includes video, video encoder 20 included in capture device 3102 may actually perform the video encoding process. When the data includes audio (ie, voice), an audio encoder included in capture device 3102 may actually perform the audio encoding process. In some practical scenarios, capture device 3102 delivers encoded video and audio data by multiplexing them together. In other practical scenarios, for example in video conferencing systems, encoded audio data and encoded video data are not multiplexed. Capture device 3102 separately delivers encoded audio data and encoded video data to terminal device 3106 .

コンテンツ供給システム3100では、端末デバイス310は、符号化データを受信して再生する。端末デバイス3106は、上記の符号化データを復号できるスマートフォン若しくはパッド3108、コンピュータ若しくはラップトップ3110、ネットワークビデオレコーダ(NVR, network video recorder)/デジタルビデオレコーダ(DVR, digital video recorder)3112、TV3114、セットトップボックス(STB, set top box)3116、ビデオ会議システム3118、ビデオ監視システム3120、パーソナルデジタルアシスタント(PDA, personal digital assistant)3122、車載デバイス3124又はこれらのうちいずれかの組合せ等のような、データ受信及び復元能力を有するデバイスでもよい。例えば、端末デバイス3106は、上記のような宛先デバイス14を含んでもよい。符号化データがビデオを含むとき、端末デバイスに含まれるビデオデコーダ30は、ビデオ復号を実行するように優先される。符号化データがオーディオを含むとき、端末デバイスに含まれるオーディオデコーダは、オーディオ復号処理を実行するように優先される。 In the content supply system 3100, the terminal device 310 receives and reproduces encoded data. The terminal device 3106 includes a smartphone or pad 3108 capable of decoding the above encoded data, a computer or laptop 3110, a network video recorder (NVR)/digital video recorder (DVR) 3112, a TV 3114, a set data, such as a set top box (STB) 3116, a video conferencing system 3118, a video surveillance system 3120, a personal digital assistant (PDA) 3122, an in-vehicle device 3124, or any combination thereof; It may be a device with receiving and restoring capabilities. For example, terminal device 3106 may include destination device 14 as described above. When the encoded data includes video, video decoder 30 included in the terminal device is prioritized to perform video decoding. When the encoded data includes audio, an audio decoder included in the terminal device is prioritized to perform the audio decoding process.

自身のディスプレイを有する端末デバイス、例えば、スマートフォン若しくはパッド3108、コンピュータ若しくはラップトップ3110、ネットワークビデオレコーダ(NVR, network video recorder)/デジタルビデオデコーダ(DVR, digital video recorder)3112、TV3114、パーソナルデジタルアシスタント(PDA, personal digital assistant)3122又は車載デバイス3124では、端末デバイスは、復号データを自身のディスプレイに供給できる。ディスプレイを備えない端末デバイス、例えば、STB3116、ビデオ会議システム3118又はビデオ監視システム3120では、外部ディスプレイ3126が、復号データを受信して表示するために自身に接触される。 Terminal devices with their own displays, such as smartphones or pads 3108, computers or laptops 3110, network video recorders (NVRs)/digital video recorders (DVRs) 3112, TVs 3114, personal digital assistants ( PDA, personal digital assistant) 3122 or in-vehicle device 3124, the terminal device can provide the decoded data to its display. For terminal devices without a display, such as STB 3116, videoconferencing system 3118 or video surveillance system 3120, external display 3126 is contacted to receive and display the decoded data.

このシステム内の各デバイスが符号化又は復号を実行するとき、上記の実施形態において示すように、ピクチャ符号化デバイス又はピクチャ復号デバイスが使用できる。 When each device in this system performs encoding or decoding, it can use a picture encoding device or a picture decoding device, as shown in the above embodiments.

図7は、端末デバイス3106の例の構造を示す図である。端末デバイス3106がキャプチャデバイス3102からストリームを受信した後に、プロトコル処理ユニット3202は、ストリームの送信プロトコルを分析する。プロトコルは、リアルタイムストリーミングプロトコル(RTSP, Real Time Streaming Protocol)、ハイパーテキスト転送プロトコル(HTTP, Hyper Text Transfer Protocol)、HTTPライブストリーミングプロトコル(HLS, HTTP Live streaming protocol)、MPEG-DASH、リアルタイムトランスポートプロトコル(RTP, Real-time Transport protocol)、リアルタイムメッセージングプロトコル(RTMP, Real Time Messaging Protocol)又はいずれかの種類のこれらの組み合わせ等を含むが、これらに限定されない。 FIG. 7 is a diagram illustrating the structure of an example terminal device 3106 . After the terminal device 3106 receives the stream from the capture device 3102, the protocol processing unit 3202 analyzes the transmission protocol of the stream. Protocols include Real Time Streaming Protocol (RTSP), Hyper Text Transfer Protocol (HTTP), HTTP Live Streaming Protocol (HLS), MPEG-DASH, Real Time Transport Protocol ( Real-time Transport protocol (RTP), Real Time Messaging Protocol (RTMP) or any combination thereof of any kind.

プロトコル処理ユニット3202がストリームを処理した後に、ストリームファイルが生成される。ファイルは、逆多重化ユニット3204に出力される。逆多重化ユニット3204は、多重化データを符号化オーディオデータ及び符号化ビデオデータに分離できる。上記のように、いくつかの実際のシナリオでは、例えば、ビデオ会議システムにおいて、符号化オーディオデータ及び符号化ビデオデータは多重化されない。この状況では、符号化データは、逆多重化ユニット3204を通過せずにビデオデコーダ3206及びオーディオデコーダ3208に送信される。 After the protocol processing unit 3202 processes the stream, a stream file is generated. The files are output to demultiplexing unit 3204 . A demultiplexing unit 3204 can separate the multiplexed data into encoded audio data and encoded video data. As noted above, in some practical scenarios, for example, in video conferencing systems, encoded audio data and encoded video data are not multiplexed. In this situation, the encoded data is sent to video decoder 3206 and audio decoder 3208 without passing through demultiplexing unit 3204 .

逆多重化処理を介して、ビデオエレメンタリストリーム(ES, elementary stream)、オーディオES及び任意選択のサブタイトルが生成される。上記の実施形態において説明したようなビデオデコーダ30を含むビデオデコーダ3206は、上記の実施形態において示すような復号方法によりビデオESを復号して、ビデオフレームを生成し、このデータを同期ユニット3212に供給する。オーディオデコーダ3208は、オーディオESを復号してオーディオフレームを生成し、このデータを同期ユニット3212に供給する。代替として、ビデオフレームは、同期ユニット3212に供給する前に、バッファ(図7に図示せず)に記憶してもよい。同様に、オーディオフレームは、同期ユニット3212に供給する前に、バッファ(図7に図示せず)に記憶してもよい。 Through a demultiplexing process, a video elementary stream (ES), an audio ES and optional subtitles are generated. A video decoder 3206, including the video decoder 30 as described in the above embodiments, decodes the video ES by decoding methods as shown in the above embodiments to generate video frames and passes this data to the synchronization unit 3212. supply. Audio decoder 3208 decodes the audio ES to generate audio frames and provides this data to synchronization unit 3212 . Alternatively, the video frames may be stored in a buffer (not shown in FIG. 7) before being provided to synchronization unit 3212 . Similarly, audio frames may be stored in a buffer (not shown in FIG. 7) before being provided to synchronization unit 3212 .

同期ユニット3212は、ビデオフレーム及びオーディオフレームを同期させ、ビデオ/オーディオをビデオ/オーディオディスプレイ3214に供給する。例えば、同期ユニット3212は、ビデオ及びオーディオ情報の提示を同期させる。情報は、コーディングされたオーディオ及び視覚データの提示に関するタイムスタンプと、データストリーム自身の配信に関するタイムスタンプとを使用してシンタックス内にコーディングしてもよい。 Synchronization unit 3212 synchronizes video and audio frames and provides video/audio to video/audio display 3214 . For example, synchronization unit 3212 synchronizes the presentation of video and audio information. Information may be coded into the syntax using timestamps for the presentation of the coded audio and visual data and timestamps for the delivery of the data stream itself.

サブタイトルがストリームに含まれる場合、サブタイトルデコーダ3210は、サブタイトルを復号し、これをビデオフレーム及びオーディオフレームと同期させ、ビデオ/オーディオ/サブタイトルをビデオ/オーディオ/サブタイトルディスプレイ3216に供給する。 If subtitles are included in the stream, subtitle decoder 3210 decodes the subtitles, synchronizes them with the video and audio frames, and provides video/audio/subtitles to video/audio/subtitle display 3216 .

本発明は、上記のシステムに限定されず、上記の実施形態におけるピクチャ符号化デバイス又はピクチャ復号デバイスのいずれかは、他のシステム、例えば車両システムに組み込まれることができる。 The present invention is not limited to the systems described above, and either the picture encoding device or the picture decoding device in the above embodiments can be incorporated into other systems, such as vehicle systems.

さらに、図8は、本開示の実施形態による、ピクチャの現在ブロックの逆量子化のための方法であり、デコーダにより実行される方法のフローチャートを示す。図8において、ピクチャの現在ブロックの逆量子化のための方法であり、デコーダにより実行される方法は、以下のステップ、すなわち、
(1601)ビットストリームを受信するステップと、(1603)ビットストリームからジョイントクロミナンス成分残差(JCCR, joint chrominance component residual)制御フラグを取得するステップと、(1605)JCCR制御フラグに基づいて、ビットストリームからクロミナンスマッピング情報を取得するステップと、(1607)JCCR制御フラグに基づいて、ビットストリームから少なくとも1つのクロミナンス量子化パラメータ(QP, quantization parameter)オフセットを取得するステップと、(1609)取得されたクロミナンスマッピング情報及び少なくとも1つの取得されたクロミナンスQPオフセットに基づいて、現在クロミナンスブロックについてのQP値を取得するステップと、(1611)決定されたQP値を使用することにより、現在クロミナンスブロックに対して逆量子化を実行するステップと
を含むように示されている。
Further, FIG. 8 shows a flow chart of a method, performed by a decoder, for inverse quantization of a current block of a picture, according to an embodiment of the present disclosure. In FIG. 8, a method for inverse quantization of the current block of a picture, the method performed by the decoder comprises the following steps:
(1601) receiving a bitstream; (1603) obtaining a joint chrominance component residual (JCCR) control flag from the bitstream; (1607) obtaining at least one chrominance quantization parameter (QP) offset from the bitstream based on a JCCR control flag; (1609) obtained chrominance mapping information from (1611) obtaining a QP value for the current chrominance block based on the mapping information and at least one obtained chrominance QP offset; is shown to include the step of performing quantization;

さらに、図9は、本開示の更なる実施形態による、ピクチャの現在ブロックの逆量子化のための方法であり、デコーダにより実行される方法のフローチャートを示す。図9において、ピクチャの現在ブロックの逆量子化のための方法であり、デコーダにより実行される方法は、以下のステップ、すなわち、(1651)ビットストリームを受信するステップであり、ビットストリームは、スライスヘッダシンタックス及びPPSシンタックスを含む、ステップと、(1653)PPSシンタックスからシンタックスエレメントを取得するステップであり、取得されたシンタックスエレメントは、クロミナンス量子化パラメータ(QP, quantization parameter)オフセットを含む、ステップと、(1655)スライスヘッダからクロミナンスQPオフセット情報を取得するステップであり、QPオフセット情報は、PPSシンタックス内のいずれかのPPSシンタックスエレメントから独立して取得される、ステップと、(1657)PPSシンタックスから取得されたクロミナンスQPオフセット及びスライスヘッダシンタックスから取得されたクロミナンスQPオフセット情報に依存して、現在クロミナンスブロックについてのQP値を決定するステップと、(1659)決定されたQP値を使用することにより、現在クロミナンスブロックに対して逆量子化を実行するステップとを含むように示されている。 Furthermore, FIG. 9 shows a flow chart of a method, performed by a decoder, for inverse quantization of a current block of a picture, according to a further embodiment of the present disclosure. In FIG. 9, a method for inverse quantization of the current block of a picture, the method performed by the decoder are the following steps: (1651) receiving a bitstream, which is sliced (1653) including a header syntax and a PPS syntax; and obtaining a syntax element from the (1653) PPS syntax, the obtained syntax element including a chrominance quantization parameter (QP) offset. (1655) obtaining chrominance QP offset information from a slice header, wherein the QP offset information is obtained independently from any PPS syntax element within the PPS syntax; (1657) determining a QP value for the current chrominance block depending on the chrominance QP offset obtained from the PPS syntax and the chrominance QP offset information obtained from the slice header syntax; and performing inverse quantization on the current chrominance block by using the QP value.

さらに、図10は、本開示の実施形態による、ピクチャの現在ブロックの逆量子化のための方法であり、エンコーダにより実行される方法のフローチャートを示す。図10において、ピクチャの現在ブロックの逆量子化のための方法であり、エンコーダにより実行される方法は、以下のステップ、すなわち、(2601)ジョイントクロミナンス成分残差(JCCR, joint chrominance component residual)制御フラグをビットストリームに符号化するステップと、(2603)JCCR制御フラグに基づいて、クロミナンスマッピング情報をビットストリームに符号化するステップと、(2605)JCCR制御フラグに基づいて、少なくとも1つのクロミナンス量子化パラメータ(QP, quantization parameter)オフセットをビットストリームに符号化するステップと、(2067)ビットストリームを提供するステップとを含むように示されている。 Further, FIG. 10 shows a flowchart of a method, performed by an encoder, for inverse quantization of a current block of a picture, according to an embodiment of the present disclosure. In FIG. 10, the method for inverse quantization of the current block of a picture, performed by the encoder, comprises the following steps: (2601) joint chrominance component residual (JCCR) control; (2603) encoding chrominance mapping information into the bitstream based on the JCCR control flags; (2605) at least one chrominance quantization based on the JCCR control flags. It is shown to include the steps of encoding a parameter (QP, quantization parameter) offset into a bitstream and providing a (2067) bitstream.

さらに、図11は、本開示による、ピクチャの現在ブロックの逆量子化のための方法であり、エンコーダにより実行される方法のフローチャートを示す。図11において、ピクチャの現在ブロックの逆量子化のための方法であり、エンコーダにより実行される方法は、以下のステップ、すなわち、
(2651)スライスヘッダ及びPPSシンタックスからのシンタックスエレメントをビットストリームに符号化するステップであり、シンタックスエレメントは、クロミナンス量子化パラメータ(QP, quantization parameter)オフセットを含む、ステップと、(2653)スライスヘッダからのクロミナンスQPオフセット情報をビットストリームに符号化するステップであり、QPオフセット情報は、PPSシンタックス内のいずれかのPPSシンタックスエレメントから独立して取得される、ステップと、(2655)ビットストリームを提供するステップと
を含むように示されている。
Further, FIG. 11 shows a flow chart of a method, performed by an encoder, for inverse quantization of a current block of a picture according to this disclosure. Referring to FIG. 11, a method for inverse quantization of a current block of a picture, the method performed by an encoder comprises the following steps:
(2651) encoding syntax elements from the slice header and PPS syntax into a bitstream, the syntax elements including a chrominance quantization parameter (QP) offset; and (2653). (2655) encoding chrominance QP offset information from the slice header into the bitstream, wherein the QP offset information is obtained independently from any PPS syntax element within the PPS syntax; providing a bitstream;

さらに、図12は、本開示の実施形態によるデコーダ30を示す。図12のデコーダ300は、ビットストリームを受信するように構成された受信ユニット3001と、ビットストリームからジョイントクロミナンス成分残差(JCCR, joint chrominance component residual)制御フラグを取得するように構成された第1の取得ユニット3003と、JCCR制御フラグに基づいて、ビットストリームからクロミナンスマッピング情報を取得するように構成された第2の取得ユニット3005と、JCCR制御フラグに基づいて、ビットストリームから少なくとも1つのクロミナンス量子化パラメータ(QP, quantization parameter)オフセットを取得するように構成された第3の取得ユニット3007と、取得されたクロミナンスマッピング情報及び少なくとも1つの取得されたクロミナンスQPオフセットに基づいて、現在クロミナンスブロックについてのQP値を取得するように構成された第4の取得ユニット3009と、決定されたQP値を使用することにより、現在クロミナンスブロックに対して逆量子化を実行するように構成された逆量子化ユニット(3011)とを含む。 Additionally, FIG. 12 illustrates a decoder 30 according to an embodiment of the present disclosure. The decoder 300 of FIG. 12 comprises a receiving unit 3001 configured to receive a bitstream and a first unit 3001 configured to obtain a joint chrominance component residual (JCCR) control flag from the bitstream. a second obtaining unit 3005 configured to obtain chrominance mapping information from the bitstream based on the JCCR control flag; and at least one chrominance quantum from the bitstream based on the JCCR control flag. a third obtaining unit 3007 configured to obtain a quantization parameter (QP) offset, and a quantization parameter (QP) offset for the current chrominance block based on the obtained chrominance mapping information and the at least one obtained chrominance QP offset; a fourth obtaining unit 3009 configured to obtain a QP value and an inverse quantization unit configured to perform inverse quantization on the current chrominance block by using the determined QP value (3011) and

さらに、図13は、本開示の他の実施形態によるデコーダ30を示す。図13のデコーダ30は、ビットストリームを受信するように構成された受信ユニット3051であり、ビットストリームは、スライスヘッダシンタックス及びPPSシンタックスを含む、受信ユニット3051と、PPSシンタックスからシンタックスエレメントを取得するように構成された第1の取得ユニット3053であり、取得されたシンタックスエレメントは、クロミナンス量子化パラメータ(QP, quantization parameter)オフセットを含む、第1の取得ユニット3053と、スライスヘッダからクロミナンスQPオフセット情報を取得するように構成された第2の取得ユニット3055であり、QPオフセット情報は、PPSシンタックス内のいずれかのPPSシンタックスエレメントから独立して取得される、第2の取得ユニット3055と、PPSシンタックスから取得されたクロミナンスQPオフセット及びスライスヘッダシンタックスから取得されたクロミナンスQPオフセット情報に依存して、現在クロミナンスブロックについてのQP値を決定するように構成された決定ユニット3057と、決定されたQP値を使用することにより、現在クロミナンスブロックに対して逆量子化を実行するように構成された逆量子化ユニット3059とを含む。 Additionally, FIG. 13 illustrates a decoder 30 according to another embodiment of the present disclosure. The decoder 30 of FIG. 13 is a receiving unit 3051 configured to receive a bitstream, the bitstream including slice header syntax and PPS syntax, and syntax elements from the PPS syntax. and the obtained syntax elements include a chrominance quantization parameter (QP) offset, from the first obtaining unit 3053 and the slice header a second obtaining unit 3055 configured to obtain chrominance QP offset information, wherein the QP offset information is obtained independently from any PPS syntax element in the PPS syntax; A unit 3055 and a determining unit 3057 configured to determine a QP value for the current chrominance block in dependence on the chrominance QP offset obtained from the PPS syntax and the chrominance QP offset information obtained from the slice header syntax. and an inverse quantization unit 3059 configured to perform inverse quantization on the current chrominance block by using the determined QP value.

さらに、図14は、本開示の実施形態によるエンコーダ20を示す。図14のエンコーダ20は、ジョイントクロミナンス成分残差(JCCR, joint chrominance component residual)制御フラグをビットストリームに符号化するように構成された第1の符号化ユニット2001と、JCCR制御フラグに基づいて、クロミナンスマッピング情報をビットストリームに符号化するように構成された第2の符号化ユニット2003と、JCCR制御フラグに基づいて、少なくとも1つのクロミナンス量子化パラメータ(QP, quantization parameter)オフセットをビットストリームに符号化するように構成された第3の符号化ユニット3005と、ビットストリームを提供するように構成された提供ユニット3007とを含む。 Additionally, FIG. 14 illustrates an encoder 20 according to an embodiment of the present disclosure. The encoder 20 of FIG. 14 includes a first encoding unit 2001 configured to encode a joint chrominance component residual (JCCR) control flag into the bitstream, and based on the JCCR control flag: A second encoding unit 2003 configured to encode chrominance mapping information into the bitstream and, based on JCCR control flags, encode at least one chrominance quantization parameter (QP) offset into the bitstream. and a providing unit 3007 configured to provide a bitstream.

さらに、図15は、本開示の他の実施形態によるエンコーダ20を示す。図15のエンコーダ20は、スライスヘッダ及びPPSシンタックスからのシンタックスエレメントをビットストリームに符号化するように構成された第1の符号化ユニット2051であり、シンタックスエレメントは、クロミナンス量子化パラメータ(QP, quantization parameter)オフセットを含む、第1の符号化ユニット2051と、スライスヘッダからのクロミナンスQPオフセット情報をビットストリームに符号化するように構成された第2の符号化ユニット2053であり、QPオフセット情報は、PPSシンタックス内のいずれかのPPSシンタックスエレメントから独立して取得される、第2の符号化ユニット2053と、ビットストリームを提供するように構成された提供ユニット2055とを含む。 Additionally, FIG. 15 illustrates an encoder 20 according to another embodiment of the present disclosure. The encoder 20 of FIG. 15 is a first encoding unit 2051 configured to encode syntax elements from the slice header and PPS syntax into the bitstream, the syntax elements being the chrominance quantization parameters ( a first encoding unit 2051, comprising a QP (quantization parameter) offset, and a second encoding unit 2053, configured to encode chrominance QP offset information from the slice header into the bitstream, the QP offset; The information includes a second encoding unit 2053 and a providing unit 2055 configured to provide a bitstream, independently obtained from any PPS syntax element within the PPS syntax.

数学演算子
本願で使用される数学演算子は、Cプログラミング言語で使用されるものと同様である。しかし、整数除算及び算術シフト演算の結果は、より正確に定義され、指数計算及び実数値の除算のような更なる演算子が定義される。番号付け及び計数規則は、一般的に0から始まり、例えば、「第1」は0番目と等価であり、「第2」は1番目と等価である、等である。
Mathematical Operators The mathematical operators used in this application are similar to those used in the C programming language. However, the results of integer division and arithmetic shift operations are defined more precisely, and further operators are defined such as exponential calculation and real-valued division. Numbering and counting conventions generally start with 0, eg, "first" is equivalent to 0th, "second" is equivalent to 1st, and so on.

論理演算子
以下の論理演算子は以下のように定義される。

Figure 0007328446000028
Logical Operators The following logical operators are defined as follows.
Figure 0007328446000028

論理演算子
以下の論理演算子は以下のように定義される。
x&&y x及びyのブール論理「積」
x||y x及びyのブール論理「和」
! ブール論理「否定」
x?y:z xが真である場合又は0に等しくない場合、yの値に評価され、そうでない場合、zの値に評価される
Logical Operators The following logical operators are defined as follows.
x&&y boolean logical "and" of x and y
Boolean logical "union" of x||yx and y
! boolean logic "not"
x?y: if zx is true or not equal to 0, evaluates to the value of y, else evaluates to the value of z

関係演算子
以下の関係演算子は以下のように定義される。
> よりも大きい
>= 以上
< 未満
<= 以下
== 等しい
!= 等しくない
関係演算子が値「na」(not applicable)を割り当てられたシンタックスエレメント又は変数に適用されるとき、値「na」は、シンタックスエレメント又は変数の個別の値として扱われる。値「na」は、いずれかの他の値に等しくないと考えられる。
Relational Operators The following relational operators are defined as follows.
> greater than
>= greater than
< less than
<= less than
== equal
When the != not equal relational operator is applied to a syntax element or variable that has been assigned the value 'na' (not applicable), the value 'na' is treated as a separate value for the syntax element or variable. The value "na" is considered unequal to any other value.

ビット演算子
以下のビット演算子は以下のように定義される。
& ビット毎の「積」。整数の引数に対して演算するとき、整数値の2の補数表現に対して演算する。他の引数よりも少ないビットを含む二値の引数に対して演算するとき、より短い引数は、0に等しいより上位のビットを追加することにより拡張される。
| ビット毎の「和」。整数の引数に対して演算するとき、整数値の2の補数表現に対して演算する。他の引数よりも少ないビットを含む二値の引数に対して演算するとき、より短い引数は、0に等しいより上位のビットを追加することにより拡張される。
^ ビット毎の「排他和」。整数の引数に対して演算するとき、整数値の2の補数表現に対して演算する。他の引数よりも少ないビットを含む二値の引数に対して演算するとき、より短い引数は、0に等しいより上位のビットを追加することにより拡張される。
x>>y y個の二進数字によるxの2の補数整数表現の算術右シフト。この関数は、yの非負整数値についてのみ定義される。右シフトの結果としての最上位ビット(MSB, most significant bit)にシフトされたビットは、シフト演算前のxのMSBに等しい値を有する。
x<<y y個の二進数字によるxの2の補数整数表現の算術左シフト。この関数は、yの非負整数値についてのみ定義される。左シフトの結果としての最下位ビット(LSB, least significant bit)にシフトされたビットは、0に等しい値を有する。
Bitwise Operators The following bitwise operators are defined as follows.
& Bitwise "product". When operating on integer arguments, it operates on the two's complement representation of the integer value. When operating on binary arguments that contain fewer bits than other arguments, shorter arguments are extended by adding more significant bits equal to zero.
| Bitwise "sum". When operating on integer arguments, it operates on the two's complement representation of the integer value. When operating on binary arguments that contain fewer bits than other arguments, shorter arguments are extended by adding more significant bits equal to zero.
^ Bitwise "exclusive sum". When operating on integer arguments, it operates on the two's complement representation of the integer value. When operating on binary arguments that contain fewer bits than other arguments, shorter arguments are extended by adding more significant bits equal to zero.
Arithmetic right shift of the two's complement integer representation of x by x>>yy binary digits. This function is only defined for non-negative integer values of y. The most significant bit (MSB) shifted bit as a result of the right shift has a value equal to the MSB of x before the shift operation.
Arithmetic left shift of the two's complement integer representation of x by x<<yy binary digits. This function is only defined for non-negative integer values of y. The least significant bit (LSB) shifted bit as a result of the left shift has a value equal to zero.

代入演算子
以下の代入演算子は以下のように定義される。
= 代入演算子
++ インクリメント。すなわち、x++はx=x+1に等しい。配列インデックスにおいて使用されるとき、インクリメント演算の前の変数の値に評価される。
-- デクリメント。すなわち、x--はx=x-1に等しい。配列インデックスにおいて使用されるとき、デクリメント演算の前の変数の値に評価される。
+= 指定された量だけのインクリメント。すなわちx+=3はx=x+3に等しく、x+=(-3)はx=x+(-3)に等しい。
-= 指定された量だけのデクリメント。すなわちx-=3はx=x-3に等しく、x-=(-3)はx=x-(-3)に等しい。
Assignment Operators The following assignment operators are defined as follows.
= assignment operator
++ Increment. That is, x++ is equal to x=x+1. When used on an array index, evaluates to the value of the variable before the increment operation.
-- Decrement. That is, x-- is equal to x=x-1. When used on an array index, evaluates to the value of the variable before the decrement operation.
+= Increment by the specified amount. That is, x+=3 equals x=x+3 and x+=(-3) equals x=x+(-3).
-= Decrement by the specified amount. That is, x-=3 equals x=x-3 and x-=(-3) equals x=x-(-3).

範囲表記
以下の表記が値の範囲を指定するために使用される。
x=y..z xはy以上z以下の整数値をとり、x、y及びzは整数であり、zはyよりも大きい。
Range Notation The following notation is used to specify a range of values.
x=y..zx takes an integer value greater than or equal to y and less than or equal to z, where x, y and z are integers and z is greater than y.

数学関数
以下の数学関数が定義される。

Figure 0007328446000029
Asin(x) 三角法の逆正弦関数。-1.0以上1.0以下の範囲にある引数xに対して演算し、ラジアンの単位の-π÷2以上π÷2以下の範囲の出力値を有する。
Atan(x) 三角法の逆正接関数。引数xに対して演算し、ラジアンの単位の-π÷2以上π÷2以下の範囲の出力値を有する。
Figure 0007328446000030
Ceil(x) x以上の最小の整数。
Clip1Y(x)=Clip3(0,(1<<BitDepthY)-1,x)
Clip1C(x)=Clip3(0,(1<<BitDepthC)-1,x)
Figure 0007328446000031
Cos(x) ラジアンの単位の引数xに対して演算する三角法の余弦関数。
Floor(x) x以下の最大の整数。
Figure 0007328446000032
Ln(x) xの自然対数(eを底とする対数であり、eは自然対数の底の定数2.718281828...である)。
Log2(x) xの2を底とする対数。
Log10(x) xの10を底とする対数。
Figure 0007328446000033
Figure 0007328446000034
Round(x)=Sign(x)*Floor(Abs(x)+0.5)
Figure 0007328446000035
Sin(x) ラジアンの単位の引数xに対して演算する三角法の正弦関数。
Sqrt(x)=√x
Swap(x,y)=(y,x)
Tan(x) ラジアンの単位の引数xに対して演算する三角法の正接関数。 Mathematical Functions The following mathematical functions are defined.
Figure 0007328446000029
Asin(x) Trigonometry inverse sine function. Operates for an argument x in the range -1.0 to 1.0, and has an output value in the range -π/2 to π/2 in units of radians.
Atan(x) Trigonometry arctangent function. Operates on the argument x and has an output value in the range -π/2 to π/2 in units of radians.
Figure 0007328446000030
Ceil(x) Smallest integer greater than or equal to x.
Clip1 Y (x)=Clip3(0,(1<<BitDepth Y )-1,x)
Clip1 C (x)=Clip3(0,(1<<BitDepth C )-1,x)
Figure 0007328446000031
Cos(x) The trigonometric cosine function operating on the argument x in radians.
Floor(x) Largest integer less than or equal to x.
Figure 0007328446000032
Ln(x) The natural logarithm of x (the base e logarithm, where e is the constant 2.718281828... in the base of the natural logarithm).
Log2(x) The base 2 logarithm of x.
Log10(x) The base 10 logarithm of x.
Figure 0007328446000033
Figure 0007328446000034
Round(x)=Sign(x)*Floor(Abs(x)+0.5)
Figure 0007328446000035
Sin(x) The trigonometric sine function operated on the argument x in radians.
Sqrt(x)=√x
Swap(x,y)=(y,x)
Tan(x) The trigonometric tangent function that operates on the argument x in radians.

演算優先順位
式の優先順位が括弧の使用により明示的に示されないとき、以下の規則が当てはまる。
-より高い優先度の演算は、より低い優先度のいずれかの演算の前に評価される。
-同じ優先度の演算は、左から右に順次評価される。
Operational Precedence When the precedence of an expression is not explicitly indicated by the use of parentheses, the following rules apply.
- Higher priority operations are evaluated before any lower priority operations.
- Operations of the same priority are evaluated sequentially from left to right.

以下の表は、最高から最低までの演算の優先度を指定し、表におけるより高い位置は、より高い優先度を示す。 The table below specifies the priority of operations from highest to lowest, with higher positions in the table indicating higher priority.

Cプログラミング言語でも使用される演算子については、本明細書で使用される優先順位は、Cプログラミング言語で使用される優先順位と同じである。

Figure 0007328446000036
For operators that are also used in the C programming language, the precedence used here is the same as that used in the C programming language.
Figure 0007328446000036

論理演算のテキスト記述
テキストにおいて、以下の形式:
if(条件0)
ステートメント0
else(条件1)
ステートメント1
...
else /*残りの条件に関する参考注記*/
ステートメントn
で数学的に記述されるような論理演算のステートメントは、以下の方式で記述されてもよい。
...以下の通り/...以下が当てはまる:
-条件0である場合、ステートメント0
-そうでなく、条件1である場合、ステートメント1
-...
-そうでない場合(残りの条件に関する参考注記)、ステートメントn
テキストにおけるそれぞれの「…である場合…、そうでなく、…である場合…、そうでない場合…」のステートメントは、「…である場合」が直後に続く「…以下の通り」又は「…以下が当てはまる」で導入される。「…である場合…、そうでなく、…である場合…、そうでない場合…」の最後の条件は、常に「そうでない場合、…」である。交互に配置される「…である場合…、そうでなく、…である場合…、そうでない場合…」のステートメントは、「そうでない場合、…」で終わる「…以下の通り」又は「…以下が当てはまる」に一致させることにより識別できる。
Textual descriptions of logical operations In text, in the form:
if (condition 0)
statement 0
else (condition 1)
statement 1
...
else /*Informative note about remaining conditions*/
statement n
Statements of logical operations as mathematically described in may be written in the following manner.
...as follows/...the following applies:
- statement 0 if condition 0
- otherwise, if condition 1, then statement 1
-...
- otherwise (informative note on remaining conditions), statement n
Each "if..., if..., if..., if..." statement in the text is immediately followed by "if... then" or "if... applies”. The last condition of "if..., if not..., if..., if not..." is always "if not...". Alternating "if..., if not..., if..., if not..." statements end with "if not, then..." or "...following" or "... can be identified by matching "is true".

テキストにおいて、以下の形式:
if(条件0a&&条件0b)
ステートメント0
else if(条件1a||条件1b)
ステートメント1
...
else
ステートメントn
で数学的に記述されるような論理演算のステートメントは、以下の方式で記述されてもよい。
...以下の通り/...以下が当てはまる:
-以下の条件の全てが真である場合、ステートメント0:
-条件0a
-条件0b
-そうでなく、以下の条件のうち1つ以上が真である場合、ステートメント1:
-条件1a
-条件1b
-…
-そうでない場合、ステートメントn
In text, the following format:
if(condition 0a&& condition 0b)
statement 0
else if(condition1a||condition1b)
statement 1
...
else
statement n
Statements of logical operations as mathematically described in may be written in the following manner.
...as follows/...the following applies:
- statement 0 if all of the following conditions are true:
- Condition 0a
-Condition 0b
- otherwise, if one or more of the following conditions are true, then statement 1:
- Condition 1a
- Condition 1b
-…
- otherwise, statement n

テキストにおいて、以下の形式:
if(条件0)
ステートメント0
if(条件1)
ステートメント1
で数学的に記述されるような論理演算のステートメントは、以下の方式で記述されてもよい。
条件0であるとき、ステートメント0
条件1であるとき、ステートメント1
In text, the following format:
if (condition 0)
statement 0
if (condition 1)
statement 1
Statements of logical operations as mathematically described in may be written in the following manner.
statement 0 when condition 0
if condition 1 then statement 1

本発明の実施形態について、主にビデオコーディングに基づいて説明したが、コーディングシステム10、エンコーダ20及びデコーダ30(及び対応してシステム10)の実施形態、並びにここに記載の他の実施形態はまた、静止画ピクチャ処理又はコーディング、すなわち、ビデオコーディングにおけるような、いずれかの前の或いは又は連続するピクチャと独立した個々のピクチャの処理又はコーディングについて構成されてもよい点に留意すべきである。一般的に、ピクチャ処理コーディングが単一のピクチャ17に限定される場合、インター予測ユニット244(エンコーダ)及び344(デコーダ)のみが利用可能でなくてもよい。ビデオエンコーダ20及びビデオデコーダ30の全ての他の機能(ツール又は技術とも呼ばれる)は、静止画ピクチャ処理、例えば、残差計算204/304、変換206、量子化208、逆量子化210/310、(逆)変換212/312、パーティション262/362、イントラ予測254/354、及び/又はループフィルタリング220、320、並びにエントロピーコーディング270及びエントロピー復号304に同等に使用されてもよい。 Although embodiments of the present invention have been described primarily based on video coding, embodiments of coding system 10, encoder 20 and decoder 30 (and correspondingly system 10), and other embodiments described herein, are also described. , still picture processing or coding, i.e., the processing or coding of individual pictures independent of any previous or subsequent pictures, such as in video coding. In general, if picture processing coding is limited to a single picture 17, only inter prediction units 244 (encoder) and 344 (decoder) may not be available. All other functions (also called tools or techniques) of video encoder 20 and video decoder 30 are used for still picture processing, e.g. (Inverse) transforms 212/312, partitions 262/362, intra prediction 254/354, and/or loop filtering 220, 320 and entropy coding 270 and entropy decoding 304 may equally be used.

例えば、エンコーダ20及びデコーダ30の実施形態、並びに、例えば、エンコーダ20及びデコーダ30に関してここに記載した機能は、ハードウェア、ソフトウェア、ファームウェア又はこれらのいずれかの組み合わせで実現されてもよい。ソフトウェアで実現される場合、機能は、1つ以上の命令又はコードとしてコンピュータ読み取り可能媒体に記憶され或いは通信媒体上で送信され、ハードウェアベースの処理ユニットにより実行されてもよい。コンピュータ読み取り可能媒体は、データ記憶媒体のような有形媒体に対応するコンピュータ読み取り可能記憶媒体、又は例えば、通信プロトコルに従って或る場所から他の場所へのコンピュータプログラムの転送を容易にするいずれかの媒体を含む通信媒体を含んでもよい。このように、コンピュータ読み取り可能媒体は、一般的に、(1)非一時的である有形コンピュータ読み取り可能記憶媒体、又は(2)信号若しくは搬送波のような通信媒体に対応してもよい。データ記憶媒体は、本開示に記載の技術の実現のために命令、コード及び/又はデータ構造を取り出すために、1つ以上のコンピュータ又は1つ以上のプロセッサによりアクセスできるいずれかの利用可能な媒体でもよい。コンピュータプログラム製品は、コンピュータ読み取り可能媒体を含んでもよい。 For example, embodiments of encoder 20 and decoder 30, and for example the functionality described herein with respect to encoder 20 and decoder 30, may be implemented in hardware, software, firmware, or any combination thereof. If implemented in software, the functions may be stored on or transmitted over a computer-readable medium as one or more instructions or code and executed by a hardware-based processing unit. Computer-readable storage medium corresponds to a tangible medium such as a data storage medium or any medium that facilitates transfer of a computer program from one place to another, for example, according to a communication protocol. may include a communication medium including In this manner, computer-readable media generally may correspond to (1) tangible computer-readable storage media which is non-transitory or (2) a communication medium such as a signal or carrier wave. Data storage media is any available medium that can be accessed by one or more computers or one or more processors to retrieve instructions, code and/or data structures for implementation of the techniques described in this disclosure. It's okay. A computer program product may include a computer-readable medium.

限定ではなく例として、このようなコンピュータ読み取り可能記憶媒体は、RAM、ROM、EEPROM、CD-ROM若しくは他の光ディスクストレージ、磁気ディスクストレージ若しくは他の磁気記憶デバイス、フラッシュメモリ、又は命令若しくはデータ構造の形式で所望のプログラムコードを記憶するために使用でき且つコンピュータによりアクセスできるいずれかの他の媒体を含むことができる。さらに、いずれかの接続は、適切にコンピュータ読み取り可能媒体と呼ばれる。例えば、命令が、同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者線(DSL, digital subscriber line)、又は赤外線、無線及びマイクロ波のような無線技術を使用してウェブサイト、サーバ又は他のリモートソースから送信される場合、同軸ケーブル、光ファイバケーブル、ツイストペア、DSL、又は赤外線、無線及びマイクロ波のような無線技術は、媒体の定義に含まれる。しかし、コンピュータ読み取り可能記憶媒体及びデータ記憶媒体は、接続、搬送波、信号又は他の一時的な媒体を含まないが、代わりに非一時的な有形記憶媒体を対象とすることが理解されるべきである。ディスク(disk)及びディクス(disc)は、ここで使用されるとき、コンパクトディスク(CD, compact disc)、レーザディスク、光ディスク、デジタル多用途ディスク(DVD, digital versatile disc)、フロッピーディスク及びブルーレイディスクを含み、ディスク(disk)は通常ではデータを磁気的に再生し、ディスク(disc)はデータをレーザで光学的に再生する。上記の組み合わせも、コンピュータ読み取り可能媒体の範囲に含まれるべきである。 By way of example, and not limitation, such computer readable storage media may include RAM, ROM, EEPROM, CD-ROM or other optical disk storage, magnetic disk storage or other magnetic storage devices, flash memory, or storage of instructions or data structures. It can include any other medium that can be used to store the desired program code in form and that can be accessed by the computer. Also, any connection is properly termed a computer-readable medium. For example, instructions may be sent to a website, server or other remote site using coaxial cable, fiber optic cable, twisted pair, digital subscriber line (DSL), or wireless technologies such as infrared, radio and microwave. If transmitted from a source, coaxial cable, fiber optic cable, twisted pair, DSL, or wireless technologies such as infrared, radio and microwave are included in the definition of medium. However, it should be understood that computer readable storage media and data storage media do not include connections, carrier waves, signals or other transitory media, but instead cover non-transitory tangible storage media. be. Disk and disc, as used herein, include compact disc (CD), laser disc, optical disc, DVD (digital versatile disc), floppy disc and Blu-ray disc. A disk usually reproduces data magnetically, and a disk reproduces data optically with a laser. Combinations of the above should also be included within the scope of computer-readable media.

命令は、1つ以上のデジタルシグナルプロセッサ(DSP, digital signal processor)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC, application specific integrated circuit)、フィールドプログラマブルロジックアレイ(FPGA, field programmable logic array)又は他の等価な集積若しくは個別論理回路のような1つ以上のプロセッサにより実行されてもよい。したがって、「プロセッサ」という用語は、ここで使用されるとき、上記の構造のうちいずれか又はここに記載の技術の実現方式に適したいずれかの他の構造を示してもよい。さらに、いくつかの態様では、ここに記載の機能は、符号化及び復号のために構成された専用のハードウェア及び/又はソフトウェアモジュール内に提供されてもよく或いは結合されたコーデックに組み込まれてもよい。さらに、技術は、1つ以上の回路又は論理素子に完全に実現されてもよい。 The instructions are written in one or more digital signal processors (DSPs), general purpose microprocessors, application specific integrated circuits (ASICs), field programmable logic arrays (FPGAs), or other may be executed by one or more processors such as equivalent integrated or discrete logic circuits. Accordingly, the term "processor," as used herein, may refer to any of the structures described above or any other structure suitable for implementing the techniques described herein. Moreover, in some aspects the functionality described herein may be provided within dedicated hardware and/or software modules configured for encoding and decoding, or incorporated into a combined codec. good too. Moreover, the techniques may be fully implemented in one or more circuits or logic elements.

本開示の技術は、無線ハンドセット、集積回路(IC, integrated circuit)又はICのセット(例えば、チップセット)を含む広範なデバイス又は装置に実現されてもよい。様々なコンポーネント、モジュール又はユニットは、開示の技術を実行するように構成されたデバイスの機能的側面を強調するように本開示において記載されているが、異なるハードウェアユニットによる実現を必ずしも必要としない。むしろ、上記のように、様々なユニットは、適切なソフトウェア及び/又はファームウェアと組み合わせて、コーデックハードウェアユニットに結合されてもよく、或いは、上記のような1つ以上のプロセッサを含む相互運用ハードウェアユニットの集合により提供されてもよい。 The techniques of this disclosure may be implemented in a wide variety of devices or apparatus, including wireless handsets, integrated circuits (ICs), or sets of ICs (eg, chipsets). Various components, modules or units are described in this disclosure to emphasize functional aspects of devices configured to perform the disclosed techniques, but do not necessarily require realization by different hardware units. . Rather, as described above, the various units may be combined with appropriate software and/or firmware into a codec hardware unit, or an interoperable hardware unit including one or more processors as described above. It may be provided by a collection of wear units.

本開示は以下の19個の更なる態様を提供する。 The present disclosure provides the following 19 additional aspects.

ピクチャの現在ブロックの逆量子化のための方法の第1の態様であって、当該方法はデコーダにより実行され、当該方法は、
ビットストリームを受信するステップであり、ビットストリームは、スライスヘッダシンタックス及びPPSシンタックスを含む、ステップと、
PPSシンタックスからシンタックスエレメントを取得するステップであり、取得されたシンタックスエレメントは、クロミナンス量子化パラメータ(QP, quantization parameter)オフセットを含む、ステップと、
スライスヘッダからクロミナンスQPオフセット情報を取得するステップであり、QPオフセット情報は、PPSシンタックス内のいずれかのPPSシンタックスエレメントから独立して取得される、ステップと、
PPSシンタックスから取得されたクロミナンスQPオフセット及びスライスヘッダシンタックスから取得されたクロミナンスQPオフセット情報に依存して、現在クロミナンスブロックについてのQP値を決定するステップと、
決定されたQP値を使用することにより、現在クロミナンスブロックに対して逆量子化を実行するステップと
を含む方法の第1の態様。
A first aspect of a method for inverse quantization of a current block of a picture, the method being performed by a decoder, the method comprising:
receiving a bitstream, the bitstream comprising slice header syntax and PPS syntax;
obtaining a syntax element from the PPS syntax, the obtained syntax element including a chrominance quantization parameter (QP) offset;
obtaining chrominance QP offset information from a slice header, wherein the QP offset information is obtained independently from any PPS syntax element within the PPS syntax;
determining a QP value for the current chrominance block dependent on the chrominance QP offset obtained from the PPS syntax and the chrominance QP offset information obtained from the slice header syntax;
performing inverse quantization on the current chrominance block by using the determined QP value.

第1の態様による方法の第2の態様であって、PPSシンタックスから取得された少なくとも1つのクロミナンスQPオフセットは、pps_cb_qp_offset、pps_cr_qp_offset、pps_joint_cbcr_qp_offset及びcu_chroma_qp_offset_enabled_flagを含む、方法の第2の態様。 A second aspect of the method according to the first aspect, wherein the at least one chrominance QP offset obtained from the PPS syntax comprises pps_cb_qp_offset, pps_cr_qp_offset, pps_joint_cbcr_qp_offset and cu_chroma_qp_offset_enabled_flag.

第2の態様による方法の第3の態様であって、cu_chroma_qp_offset_enabled_flagの値が真である場合(例えば、cu_chroma_qp_offset_enabled_flagの値が1である場合)、PPSシンタックスから取得されたクロミナンスQPオフセットは、cu_chroma_qp_offset_subdiv、chroma_qp_offset_list_len_minus1、cb_qp_offset_list[i]、cr_qp_offset_list[i]及びjoint_cbcr_qp_offset_list[i]を更に含み、

Figure 0007328446000037
であり、iは整数である、方法の第3の態様。 A third aspect of the method according to the second aspect, wherein if the value of cu_chroma_qp_offset_enabled_flag is true (eg, if the value of cu_chroma_qp_offset_enabled_flag is 1), the chrominance QP offsets obtained from the PPS syntax are: cu_chroma_qp_offset_subdiv, further comprising chroma_qp_offset_list_len_minus1, cb_qp_offset_list[i], cr_qp_offset_list[i] and joint_cbcr_qp_offset_list[i];
Figure 0007328446000037
and i is an integer.

第1~第3の態様のうちいずれか1つによる方法の第4の態様であって、スライスヘッダシンタックスから取得されたクロミナンスQPオフセット情報は、slice_cb_qp_offset及びslice_cr_qp_offsetを含む、方法の第4の態様。 A fourth aspect of the method according to any one of the first to third aspects, wherein the chrominance QP offset information obtained from the slice header syntax includes slice_cb_qp_offset and slice_cr_qp_offset .

第4の態様による方法の第5の態様であって、sps_joint_cbcr_enabled_flag(例えば、ビットストリームに含まれるSPSレベルシンタックスのエレメント)の値が真である場合(例えば、sps_joint_cbcr_enabled_flagの値が1である場合)、スライスヘッダシンタックスから取得されたクロミナンスQPオフセット情報は、slice_joint_cbcr_qp_offsetを更に含む、方法の第5の態様。 A fifth aspect of the method according to the fourth aspect, wherein the value of sps_joint_cbcr_enabled_flag (eg, an element of SPS level syntax included in the bitstream) is true (eg, the value of sps_joint_cbcr_enabled_flag is 1) , the chrominance QP offset information obtained from the slice header syntax further comprises slice_joint_cbcr_qp_offset.

第1~第5の態様のうちいずれか1つによる方法の第6の態様であって、PPSシンタックスは、以下の構造を含む、方法の第6の態様。

Figure 0007328446000038
A sixth aspect of the method according to any one of the first to fifth aspects, wherein the PPS syntax comprises the following structure.
Figure 0007328446000038

第1~第6の態様のうちいずれか1つによる方法の第7の態様であって、スライスヘッダシンタックスは、以下の構造を含む、方法の第7の態様。

Figure 0007328446000039
A seventh aspect of the method according to any one of the first to sixth aspects, wherein the slice header syntax comprises the following structure.
Figure 0007328446000039

第1~第7の態様のうちいずれか1つによる方法の第8の態様であって、フラグpps_slice_chroma_qp_offsets_present_flagは、PPSシンタックスにおいて省略されるか、或いは、
スライスヘッダ及びPPSシンタックスは、常にクロミナンスQPオフセットに関連するエレメントを含む、方法の第8の態様。
An eighth aspect of the method according to any one of the first to seventh aspects, wherein the flag pps_slice_chroma_qp_offsets_present_flag is omitted in the PPS syntax, or
An eighth aspect of the method, wherein the slice header and PPS syntax always contain elements related to chrominance QP offsets.

ピクチャの現在ブロックの逆量子化のための方法の第9の態様であって、当該方法はデコーダにより実行され、当該方法は、
ビットストリームを受信するステップと、
ビットストリームからジョイントクロミナンス成分残差(JCCR, joint chrominance component residual)制御フラグを取得するステップと、
JCCR制御フラグに基づいて、ビットストリームからクロミナンスマッピング情報を取得するステップと、
JCCR制御フラグに基づいて、ビットストリームからクロミナンス量子化パラメータ(QP, quantization parameter)オフセットを取得するステップと、
取得されたクロミナンスマッピング情報及び取得されたクロミナンスQPオフセットに基づいて、現在クロミナンスブロックについてのQP値を取得するステップと、
決定されたQP値を使用することにより、現在クロミナンスブロックに対して逆量子化を実行するステップと
を含む方法の第9の態様。
A ninth aspect of a method for inverse quantization of a current block of a picture, the method being performed by a decoder, the method comprising:
receiving a bitstream;
obtaining a joint chrominance component residual (JCCR) control flag from the bitstream;
obtaining chrominance mapping information from the bitstream based on JCCR control flags;
obtaining a chrominance quantization parameter (QP) offset from the bitstream based on a JCCR control flag;
obtaining a QP value for the current chrominance block based on the obtained chrominance mapping information and the obtained chrominance QP offset;
performing inverse quantization on the current chrominance block by using the determined QP value.

第9の態様による方法の第10の態様であって、ビットストリームは、SPSレベルシンタックスを含み、JCCR制御フラグは、SPSレベルシンタックスから取得される、方法の第10の態様。 A tenth aspect of the method according to the ninth aspect, wherein the bitstream comprises SPS level syntax and the JCCR control flag is obtained from the SPS level syntax.

第9又は第10の態様による方法の第11の態様であって、JCCR制御フラグはsps_joint_cbcr_enabled_flagである、方法の第11の態様。 An eleventh aspect of the method according to the ninth or tenth aspect, wherein the JCCR control flag is sps_joint_cbcr_enabled_flag.

第9~第11の態様のうちいずれか1つによる方法の第12の態様であって、クロミナンスマッピング情報は、delta_qp_in_val_minus1[i][j]及びdelta_qp_out_val[i][j]を含み、クロミナンスマッピング情報は、ビットストリームに含まれるSPSレベルシンタックスから取得される、方法の第12の態様。 A twelfth aspect of the method according to any one of the ninth to eleventh aspects, wherein the chrominance mapping information comprises delta_qp_in_val_minus1[i][j] and delta_qp_out_val[i][j]; is obtained from the SPS level syntax included in the bitstream.

第9~第12の態様のうちいずれか1つによる方法の第13の態様であって、SPSレベルシンタックスは、以下の構造を含む、方法の第13の態様。

Figure 0007328446000040
A thirteenth aspect of the method according to any one of the ninth to twelfth aspects, wherein the SPS level syntax comprises the following structure.
Figure 0007328446000040

第9~第13の態様のうちいずれか1つによる方法の第14の態様であって、JCCR制御フラグに基づいて、ビットストリームからクロミナンスQPオフセットを取得するステップは、
JCCR制御フラグに基づいて、ビットストリームのPPSレベルシンタックスからクロミナンスQPオフセットを取得するステップを含む、方法の第14の態様。
A fourteenth aspect of the method according to any one of the ninth to thirteenth aspects, wherein obtaining a chrominance QP offset from the bitstream based on a JCCR control flag comprises:
A fourteenth aspect of the method, comprising obtaining a chrominance QP offset from the PPS level syntax of the bitstream based on a JCCR control flag.

第9~第14の態様のうちいずれか1つによる方法の第15の態様であって、PPSレベルシンタックスは、以下の構造を含む、方法の第15の態様。

Figure 0007328446000041
A fifteenth aspect of the method according to any one of the ninth to fourteenth aspects, wherein the PPS level syntax comprises the following structure.
Figure 0007328446000041

第1~第15の態様のうちいずれか1つによる方法を実行するための処理回路を含むデコーダの第16の態様。 A sixteenth aspect of a decoder comprising processing circuitry for performing a method according to any one of the first through fifteenth aspects.

コンピュータ又はプロセッサ上で実行されたとき、上記の態様のうちいずれか1つによる方法を実行するためのプログラムコードを含むコンピュータプログラム製品の第17の態様。 A seventeenth aspect of a computer program product comprising program code for performing a method according to any one of the above aspects when run on a computer or processor.

デコーダの第18の態様であって、
1つ以上のプロセッサと、
プロセッサに結合されてプロセッサによる実行のためのプログラミングを記憶する非一時的なコンピュータ読み取り可能記憶媒体と
を含み、プログラミングは、プロセッサにより実行されたき、上記の態様のうちいずれか1つによる方法を実行するようにデコーダを構成する、デコーダの第18の態様。
An eighteenth aspect of the decoder, comprising:
one or more processors;
a non-transitory computer readable storage medium coupled to the processor and storing programming for execution by the processor, the programming, when executed by the processor, performing a method according to any one of the above aspects. An eighteenth aspect of the decoder, wherein the decoder is configured to:

プログラムコードを搬送する非一時的なコンピュータ読み取り可能媒体の第19の態様であって、
プログラムコードは、コンピュータデバイスにより実行されたとき、コンピュータデバイスに上記の態様のうちいずれか1つによる方法を実行させる、非一時的なコンピュータ読み取り可能媒体の第19の態様。
A nineteenth aspect of a non-transitory computer-readable medium carrying program code, comprising:
A nineteenth aspect of the non-transitory computer-readable medium, the program code, when executed by a computing device, causes the computing device to perform a method according to any one of the above aspects.

Claims (19)

ピクチャの現在ブロックの逆量子化のための方法であって、当該方法はデコーダにより実行され、当該方法は、
ビットストリームを受信するステップと、
前記ビットストリームからジョイントクロミナンス成分残差(JCCR)制御フラグを取得するステップと、
前記JCCR制御フラグに基づいて、前記ビットストリームからクロミナンスマッピング情報を取得するステップと、
前記JCCR制御フラグに基づいて、前記ビットストリームから少なくとも1つのクロミナンス量子化パラメータ(QP)オフセットを取得するステップと、
前記取得されたクロミナンスマッピング情報及び前記少なくとも1つの取得されたクロミナンスQPオフセットに基づいて、現在クロミナンスブロックについてのQP値を取得するステップと、
前記取得されたQP値を使用することにより、前記現在クロミナンスブロックに対して逆量子化を実行するステップと
を含む方法。
A method for inverse quantization of a current block of a picture, the method being performed by a decoder, the method comprising:
receiving a bitstream;
obtaining a joint chrominance component residual (JCCR) control flag from the bitstream;
obtaining chrominance mapping information from the bitstream based on the JCCR control flag;
obtaining at least one chrominance quantization parameter (QP) offset from the bitstream based on the JCCR control flag;
obtaining a QP value for a current chrominance block based on the obtained chrominance mapping information and the at least one obtained chrominance QP offset;
performing inverse quantization on the current chrominance block by using the obtained QP values.
前記ビットストリームは、SPSレベルシンタックスを含み、前記JCCR制御フラグは、前記SPSレベルシンタックスから取得される、請求項1に記載の方法。 2. The method of claim 1, wherein the bitstream includes SPS level syntax and the JCCR control flags are obtained from the SPS level syntax. 前記JCCR制御フラグはsps_joint_cbcr_enabled_flagである、請求項1又は2に記載の方法。 3. A method according to claim 1 or 2, wherein said JCCR control flag is sps_joint_cbcr_enabled_flag . 前記sps_joint_cbcr_enabled_flagの値が1である場合、前記少なくとも1つの取得されたクロミナンスQPオフセットは、slice_joint_cbcr_qp_offsetにより指定される、請求項3に記載の方法。 4. The method of claim 3, wherein if the value of sps_joint_cbcr_enabled_flag is 1, the at least one obtained chrominance QP offset is specified by slice_joint_cbcr_qp_offset. 前記クロミナンスマッピング情報は、delta_qp_in_val_minus1[i][j]及びdelta_qp_out_val[i][j]を含み、前記クロミナンスマッピング情報は、前記ビットストリームに含まれるSPSレベルシンタックスから取得される、請求項1乃至4のうちいずれか1項に記載の方法。 5. The chrominance mapping information comprises delta_qp_in_val_minus1[i][j] and delta_qp_out_val[i][j], wherein the chrominance mapping information is obtained from SPS level syntax included in the bitstream. The method according to any one of 前記SPSレベルシンタックスは、以下の構造を含む、請求項に記載の方法。
Figure 0007328446000042
6. The method of claim 5 , wherein the SPS level syntax includes the following structure.
Figure 0007328446000042
前記JCCR制御フラグに基づいて、前記ビットストリームから前記少なくとも1つのクロミナンスQPオフセットを取得するステップは、
前記JCCR制御フラグに基づいて、前記ビットストリームのピクチャパラメータセット(PPS)レベルシンタックスから前記少なくとも1つのクロミナンスQPオフセットを取得するステップを含む、請求項1乃至6のうちいずれか1項に記載の方法。
obtaining the at least one chrominance QP offset from the bitstream based on the JCCR control flag;
7. The method of claim 1, comprising obtaining the at least one chrominance QP offset from Picture Parameter Set (PPS) level syntax of the bitstream based on the JCCR control flag. Method.
前記PPSレベルシンタックスは、以下の構造を含む、請求項7に記載の方法。
Figure 0007328446000043
8. The method of claim 7, wherein the PPS level syntax includes the following structure.
Figure 0007328446000043
ピクチャの現在ブロックを符号化するための方法であって、当該方法はエンコーダにより実行され、当該方法は、
ジョイントクロミナンス成分残差(JCCR)制御フラグをビットストリームに符号化するステップと、
前記JCCR制御フラグに基づいて、クロミナンスマッピング情報を前記ビットストリームに符号化するステップと、
前記JCCR制御フラグに基づいて、少なくとも1つのクロミナンス量子化パラメータ(QP)オフセットを前記ビットストリームに符号化するステップと、
前記ビットストリームを提供するステップと
を含む方法。
A method for encoding a current block of a picture, the method being performed by an encoder, the method comprising:
encoding a joint chrominance component residual (JCCR) control flag into the bitstream;
encoding chrominance mapping information into the bitstream based on the JCCR control flags;
encoding at least one chrominance quantization parameter (QP) offset into the bitstream based on the JCCR control flag;
and providing said bitstream.
前記ビットストリームは、SPSレベルシンタックスを含み、前記JCCR制御フラグは、前記SPSレベルシンタックスに符号化される、請求項に記載の方法。 10. The method of claim 9 , wherein the bitstream includes SPS level syntax and the JCCR control flags are encoded in the SPS level syntax. 前記JCCR制御フラグはsps_joint_cbcr_enabled_flagである、請求項又は10に記載の方法。 A method according to claim 9 or 10 , wherein said JCCR control flag is sps_joint_cbcr_enabled_flag . 前記sps_joint_cbcr_enabled_flagの値が1である場合、前記少なくとも1つの符号化されるクロミナンスQPオフセットは、slice_joint_cbcr_qp_offsetにより指定される、請求項11に記載の方法。 12. The method of claim 11 , wherein if the value of sps_joint_cbcr_enabled_flag is 1, the at least one coded chrominance QP offset is specified by slice_joint_cbcr_qp_offset. 前記クロミナンスマッピング情報は、delta_qp_in_val_minus1[i][j]及びdelta_qp_out_val[i][j]を含み、前記クロミナンスマッピング情報は、前記ビットストリームに含まれるSPSレベルシンタックスに符号化される、請求項乃至12のうちいずれか1項に記載の方法。 10. The chrominance mapping information comprises delta_qp_in_val_minus1[i][j] and delta_qp_out_val[i][j], wherein the chrominance mapping information is encoded in SPS level syntax included in the bitstream. 13. The method of any one of 12 . 前記SPSレベルシンタックスは、以下の構造を含む、請求項10乃至13のうちいずれか1項に記載の方法。
Figure 0007328446000044
14. The method of any one of claims 10-13 , wherein the SPS level syntax comprises the following structure:
Figure 0007328446000044
前記JCCR制御フラグに基づいて、前記少なくとも1つのクロミナンスQPオフセットを前記ビットストリームに符号化するステップは、
前記JCCR制御フラグに基づいて、前記少なくとも1つのクロミナンスQPオフセットを前記ビットストリームのピクチャパラメータセット(PPS)レベルシンタックスに符号化するステップを含む、請求項乃至14のうちいずれか1項に記載の方法。
Encoding the at least one chrominance QP offset into the bitstream based on the JCCR control flag comprises:
15. The method of any one of claims 9 to 14 , comprising encoding the at least one chrominance QP offset into picture parameter set (PPS) level syntax of the bitstream based on the JCCR control flag. the method of.
前記PPSレベルシンタックスは、以下の構造を含む、請求項15に記載の方法。
Figure 0007328446000045
16. The method of claim 15 , wherein the PPS level syntax includes the following structure.
Figure 0007328446000045
デコーダであって、
1つ以上のプロセッサと、
前記プロセッサに結合されて前記プロセッサによる実行のためのプログラミングを記憶する非一時的なコンピュータ読み取り可能記憶媒体と
を含み、前記プログラミングは、前記プロセッサにより実行されたき、請求項1乃至のうちいずれか1項に記載の方法を実行するように当該デコーダを構成する、デコーダ。
a decoder,
one or more processors;
and a non- transitory computer readable storage medium coupled to said processor and storing programming for execution by said processor, said programming when executed by said processor. A decoder configured to perform the method of claim 1.
エンコーダであって、
1つ以上のプロセッサと、
前記プロセッサに結合されて前記プロセッサによる実行のためのプログラミングを記憶する非一時的なコンピュータ読み取り可能記憶媒体と
を含み、前記プログラミングは、前記プロセッサにより実行されたき、請求項乃至16のうちいずれか1項に記載の方法を実行するように当該エンコーダを構成する、エンコーダ。
an encoder,
one or more processors;
a non-transitory computer readable storage medium coupled to said processor and storing programming for execution by said processor, said programming, when executed by said processor, any of claims 9 to 16 An encoder configured to perform the method of clause 1.
ビデオデータ復号デバイスであって、 A video data decoding device,
ビットストリームの形式でビデオデータを記憶するように構成された非一時的なメモリストレージと、 a non-transitory memory storage configured to store video data in the form of a bitstream;
請求項1乃至8のうちいずれか1項に記載の方法を実行するように構成されたデコーダと a decoder configured to perform the method according to any one of claims 1 to 8;
を含むビデオデータ復号デバイス。 video data decoding device including;
JP2022518321A 2019-09-23 2020-09-23 Method and apparatus for signaling of chrominance quantization parameters Active JP7328446B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023126663A JP2023153193A (en) 2019-09-23 2023-08-03 Method and device for signaling chrominance quantization parameter

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
RUPCT/RU2019/000664 2019-09-23
RU2019000664 2019-09-23
PCT/RU2020/050237 WO2021061019A1 (en) 2019-09-23 2020-09-23 Method and apparatus for chrominance quantization parameters signalling

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023126663A Division JP2023153193A (en) 2019-09-23 2023-08-03 Method and device for signaling chrominance quantization parameter

Publications (2)

Publication Number Publication Date
JP2022549288A JP2022549288A (en) 2022-11-24
JP7328446B2 true JP7328446B2 (en) 2023-08-16

Family

ID=75165295

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022518321A Active JP7328446B2 (en) 2019-09-23 2020-09-23 Method and apparatus for signaling of chrominance quantization parameters
JP2023126663A Pending JP2023153193A (en) 2019-09-23 2023-08-03 Method and device for signaling chrominance quantization parameter

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023126663A Pending JP2023153193A (en) 2019-09-23 2023-08-03 Method and device for signaling chrominance quantization parameter

Country Status (12)

Country Link
US (1) US20220217347A1 (en)
EP (1) EP4022911A4 (en)
JP (2) JP7328446B2 (en)
KR (1) KR20220054442A (en)
CN (1) CN114586362A (en)
AU (1) AU2020354852A1 (en)
BR (1) BR112022005290A2 (en)
CA (1) CA3151293A1 (en)
CL (1) CL2022000681A1 (en)
IL (1) IL291619A (en)
MX (1) MX2022003451A (en)
WO (1) WO2021061019A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7277354B2 (en) * 2019-12-26 2023-05-18 Kddi株式会社 Image decoding device, image decoding method and program
CN116671101A (en) * 2020-06-22 2023-08-29 抖音视界有限公司 Signaling of quantization information in a codec video
US20220353547A1 (en) * 2021-04-16 2022-11-03 Tencent America LLC Entropy coding of sign map for transform coefficients

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150071344A1 (en) 2013-09-09 2015-03-12 Apple Inc. Chroma quantization in video coding
US20200329257A1 (en) 2019-04-15 2020-10-15 Tencent America LLC Method and apparatus for video coding
US20200413101A1 (en) 2019-06-25 2020-12-31 Qualcomm Incorporated Signalling chroma quantization parameter (qp) mapping tables

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8279924B2 (en) * 2008-10-03 2012-10-02 Qualcomm Incorporated Quantization parameter selections for encoding of chroma and luma video blocks
US9591302B2 (en) * 2012-07-02 2017-03-07 Microsoft Technology Licensing, Llc Use of chroma quantization parameter offsets in deblocking
US9883184B2 (en) * 2014-10-07 2018-01-30 Qualcomm Incorporated QP derivation and offset for adaptive color transform in video coding
CN116320455A (en) * 2018-04-01 2023-06-23 Lg电子株式会社 Encoding device, decoding device, and data transmission device
CN114026866A (en) * 2019-05-03 2022-02-08 交互数字Vc控股公司 Chroma processing for video encoding and decoding
KR20240093953A (en) * 2019-06-11 2024-06-24 엘지전자 주식회사 Image decoding method and the apparatus for chroma components
KR102669640B1 (en) * 2019-06-11 2024-05-28 엘지전자 주식회사 Chroma quantization parameter data based image decoding method and the apparatus therof
CA3234651A1 (en) * 2019-06-11 2020-12-17 Lg Electronics Inc. Image decoding and encoding methods and apparatus thereof
US12003727B2 (en) * 2019-06-28 2024-06-04 Lg Electronics Inc. Image decoding method using chroma quantization parameter table, and device therefor
KR102644970B1 (en) * 2019-06-28 2024-03-08 엘지전자 주식회사 Video decoding method and device
US12015792B2 (en) * 2019-06-28 2024-06-18 Lg Electronics Inc. Image decoding method for chroma quantization parameter data and apparatus therefor
CN114223198A (en) * 2019-07-05 2022-03-22 Lg 电子株式会社 Image decoding method and apparatus for coding chrominance quantization parameter data
WO2021006562A1 (en) * 2019-07-05 2021-01-14 엘지전자 주식회사 Image decoding method and device therefor
KR102641457B1 (en) * 2019-07-05 2024-02-28 엘지전자 주식회사 Image decoding method and device for chroma components
CN112055211B (en) * 2019-08-15 2021-10-26 华为技术有限公司 Video encoder and QP setting method
JP7343596B6 (en) * 2019-08-23 2024-02-26 華為技術有限公司 Encoder, decoder and corresponding method for performing chroma deblocking for blocks using joint chroma encoding
WO2021053002A1 (en) * 2019-09-17 2021-03-25 Interdigital Vc Holdings France, Sas Chroma residual scaling foreseeing a corrective value to be added to luma mapping slope values
US11395014B2 (en) * 2019-09-18 2022-07-19 Qualcomm Incorporated Transform unit design for video coding

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150071344A1 (en) 2013-09-09 2015-03-12 Apple Inc. Chroma quantization in video coding
JP2015053680A (en) 2013-09-09 2015-03-19 アップル インコーポレイテッド Chroma quantization in video coding
US20200329257A1 (en) 2019-04-15 2020-10-15 Tencent America LLC Method and apparatus for video coding
JP2022529307A (en) 2019-04-15 2022-06-21 テンセント・アメリカ・エルエルシー Methods and equipment for video coding
US20200413101A1 (en) 2019-06-25 2020-12-31 Qualcomm Incorporated Signalling chroma quantization parameter (qp) mapping tables
JP2022538060A (en) 2019-06-25 2022-08-31 クゥアルコム・インコーポレイテッド signaling a chroma quantization parameter (QP) mapping table;

Also Published As

Publication number Publication date
WO2021061019A1 (en) 2021-04-01
EP4022911A4 (en) 2022-11-09
CA3151293A1 (en) 2021-04-01
AU2020354852A1 (en) 2022-07-21
CN114586362A (en) 2022-06-03
EP4022911A1 (en) 2022-07-06
JP2023153193A (en) 2023-10-17
BR112022005290A2 (en) 2022-09-20
CL2022000681A1 (en) 2022-10-21
JP2022549288A (en) 2022-11-24
KR20220054442A (en) 2022-05-02
IL291619A (en) 2022-05-01
US20220217347A1 (en) 2022-07-07
NZ786438A (en) 2024-03-22
MX2022003451A (en) 2022-05-18

Similar Documents

Publication Publication Date Title
JP7106744B2 (en) Encoders, decoders and corresponding methods using IBC dedicated buffers and default refresh for luma and chroma components
JP7271683B2 (en) Encoders, decoders and corresponding intra-prediction methods
US20220345748A1 (en) Encoder, decoder and corresponding methods and apparatus
US11968357B2 (en) Apparatuses and methods for encoding and decoding based on syntax element values
US11431988B2 (en) Method and apparatus for intra smoothing for intra sub-partitions
JP7328446B2 (en) Method and apparatus for signaling of chrominance quantization parameters
JP2022541700A (en) Encoders, Decoders and Corresponding Methods Related to Intra-Prediction Modes
JP2022551313A (en) Encoder, Decoder and Corresponding Method for Simplifying Picture Header Signaling
JP7553007B2 (en) METHOD AND APPARATUS FOR CHROMA INTRA PREDICTION IN VIDEO CODING - Patent application
US12041230B2 (en) Encoder, decoder and corresponding methods using interpolation filtering
JP2024055893A (en) Clipping level for non-linear adaptive loop filter
US12069242B2 (en) Reference picture management methods for video coding
JP2023100701A (en) Encoder, decoder and corresponding methods using intra mode coding for intra prediction
US20220217346A1 (en) Method and Apparatus for Chrominance QP Offsets Tables Signaling and Derivation
JP7470795B2 (en) Flexible profile configuration encoder, decoder and corresponding method - Patents.com
JP7524327B2 (en) Encoders, decoders, and corresponding methods
JP2023515189A (en) Decoder and corresponding method for signaling picture partition information for slices
JP7414976B2 (en) Encoders, decoders and corresponding methods

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220517

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230803

R150 Certificate of patent or registration of utility model

Ref document number: 7328446

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150