JP2024501138A - Most probable mode for intra prediction in video coding - Google Patents

Most probable mode for intra prediction in video coding Download PDF

Info

Publication number
JP2024501138A
JP2024501138A JP2023532812A JP2023532812A JP2024501138A JP 2024501138 A JP2024501138 A JP 2024501138A JP 2023532812 A JP2023532812 A JP 2023532812A JP 2023532812 A JP2023532812 A JP 2023532812A JP 2024501138 A JP2024501138 A JP 2024501138A
Authority
JP
Japan
Prior art keywords
probable mode
mode list
list
video data
total
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023532812A
Other languages
Japanese (ja)
Inventor
ヤオ-ジェン・チャン
マルタ・カルチェヴィッチ
Original Assignee
クアルコム,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US17/456,080 external-priority patent/US11863752B2/en
Application filed by クアルコム,インコーポレイテッド filed Critical クアルコム,インコーポレイテッド
Publication of JP2024501138A publication Critical patent/JP2024501138A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Abstract

ビデオコーダは、最確モードリストから決定されたイントラ予測モードを使用してビデオデータのブロックをコーディングし得る。ビデオコーダは、N個のエントリを含む総最確モードリストを構築することであって、総最確モードリストのN個のエントリがイントラ予測モードであり、平面モードが総最確モードリストの中の1番目のエントリである、構築することと、総最確モードリストの中の最初のNp個のエントリから1次最確モードリストを構築することであって、NpがN未満である、構築することと、総最確モードリストの中の残り(N-Np個)のエントリから2次最確モードリストを構築することとを行い得る。次いで、ビデオコーダは、1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定し得る。A video coder may code a block of video data using an intra prediction mode determined from a most probable mode list. The video coder is to construct a total most probable mode list containing N entries, where N entries of the total most probable mode list are intra prediction modes, and planar modes are among the total most probable mode list. and constructing a first-order most probable mode list from the first Np entries in the total most probable mode list, where Np is less than N. and constructing a quadratic most probable mode list from the remaining (N-Np) entries in the total most probable mode list. The video coder may then determine the current intra-prediction mode for the current block of video data using the first-order most probable mode list or the second-order most probable mode list.

Description

本出願は、2021年11月22日に出願された米国出願第17/456,080号、および2020年12月28日に出願された米国仮特許出願第63/131,115号の優先権を主張し、それらの出願の各々の内容全体は、本明細書に参照により組み込まれる。2021年11月22日に出願された米国出願第17/456,080号は、2020年12月28日に出願された米国仮特許出願第63/131,115号の利益を主張する。 This application claims priority to, and is based on, U.S. Application No. 17/456,080, filed on November 22, 2021, and U.S. Provisional Patent Application No. 63/131,115, filed on December 28, 2020. The entire contents of each of these applications are incorporated herein by reference. U.S. Application No. 17/456,080, filed on November 22, 2021, claims the benefit of U.S. Provisional Patent Application No. 63/131,115, filed on December 28, 2020.

本開示は、ビデオ符号化およびビデオ復号に関する。 TECHNICAL FIELD This disclosure relates to video encoding and video decoding.

デジタルビデオ能力は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップまたはデスクトップコンピュータ、タブレットコンピュータ、電子ブックリーダー、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレーヤ、ビデオゲーミングデバイス、ビデオゲームコンソール、セルラーまたは衛星ラジオ電話、いわゆる「スマートフォン」、ビデオ遠隔会議デバイス、ビデオストリーミングデバイスなどを含む、広範囲にわたるデバイスに組み込まれ得る。デジタルビデオデバイスは、MPEG-2、MPEG-4、ITU-T H.263、ITU-T H.264/MPEG-4、Part 10、アドバンストビデオコーディング(AVC)、ITU-T H.265/高効率ビデオコーディング(HEVC)によって定義された規格、およびそのような規格の拡張に記載されている技法などの、ビデオコーディング技法を実装する。ビデオデバイスは、そのようなビデオコーディング技法を実装することによって、デジタルビデオ情報をより効率的に送信、受信、符号化、復号、および/または記憶し得る。 Digital video capabilities include digital television, digital direct broadcast systems, wireless broadcast systems, personal digital assistants (PDAs), laptop or desktop computers, tablet computers, e-book readers, digital cameras, digital recording devices, digital media players, video It can be incorporated into a wide range of devices, including gaming devices, video game consoles, cellular or satellite radio telephones, so-called "smartphones," video teleconferencing devices, video streaming devices, and the like. Digital video devices include MPEG-2, MPEG-4, ITU-T H.263, ITU-T H.264/MPEG-4, Part 10, Advanced Video Coding (AVC), ITU-T H.265/High Efficiency Implement video coding techniques, such as the techniques described in the standards defined by HEVC, and extensions of such standards. By implementing such video coding techniques, video devices may more efficiently transmit, receive, encode, decode, and/or store digital video information.

ビデオコーディング技法は、ビデオシーケンスに固有の冗長性を低減または除去するために、空間(イントラピクチャ)予測および/または時間(インターピクチャ)予測を含む。ブロックベースのビデオコーディングの場合、ビデオスライス(たとえば、ビデオピクチャまたはビデオピクチャの一部分)は、ビデオブロックに区分されてもよく、ビデオブロックは、コーディングツリーユニット(CTU)、コーディングユニット(CU)および/またはコーディングノードと呼ばれることもある。ピクチャのイントラコーディングされた(I)スライス中のビデオブロックは、同じピクチャ中の隣接ブロック中の参照サンプルに対する空間予測を使用して符号化される。ピクチャのインターコーディングされた(PまたはB)スライス中のビデオブロックは、同じピクチャ中の隣接ブロック中の参照サンプルに対する空間予測または他の参照ピクチャ中の参照サンプルに対する時間予測を使用し得る。ピクチャはフレームと呼ばれることがあり、参照ピクチャは参照フレームと呼ばれることがある。 Video coding techniques include spatial (intra-picture) prediction and/or temporal (inter-picture) prediction to reduce or eliminate redundancy inherent in video sequences. For block-based video coding, a video slice (e.g., a video picture or a portion of a video picture) may be partitioned into video blocks, which include coding tree units (CTUs), coding units (CUs) and/or video blocks. Also called a coding node. Video blocks in intra-coded (I) slices of a picture are encoded using spatial prediction on reference samples in adjacent blocks in the same picture. Video blocks in an inter-coded (P or B) slice of a picture may use spatial prediction with respect to reference samples in adjacent blocks in the same picture or temporal prediction with respect to reference samples in other reference pictures. A picture is sometimes called a frame, and a reference picture is sometimes called a reference frame.

Brossら、「Versatile Video Coding (Draft 10)」、ITU-T SG 16 WP 3およびISO/IEC JTC 1/SC 29/WG 11のJoint Video Experts Team(JVET)、第18回会議:遠隔会議による、2020年6月22日~7月1日、JVET-S2001-vABross et al., “Versatile Video Coding (Draft 10)”, Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11, 18th Meeting: Via Teleconference, June 22nd to July 1st, 2020, JVET-S2001-vA J. Chen、Y. Ye、およびS.-H. Kim、「Algorithm description for Versatile Video Coding and Test Model 9 (VTM 9)」、JVET-R2002、2020年4月J. Chen, Y. Ye, and S.-H. Kim, “Algorithm description for Versatile Video Coding and Test Model 9 (VTM 9),” JVET-R2002, April 2020. A. Ramasubramonianら、「CE3-3.1.1: Two MPM modes and shape dependency (Test 3.1.1)」、ITU-T SG 16 WP 3およびISO/IEC JTC 1/SC 29/WG 11のJoint Video Exploration Team(JVET)、第11回会議:リュブリャナ、スロベニア、2018年7月10~18日A. Ramasubramonian et al., “CE3-3.1.1: Two MPM modes and shape dependency (Test 3.1.1),” Joint Video Exploration Team of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11. (JVET), 11th Conference: Ljubljana, Slovenia, July 10-18, 2018

一般に、本開示は、イントラ予測のための最確モード(MPM)(most probable mode)リストを決定し、最確モードリストからイントラ予測モードを決定するための技法について説明する。本開示の技法は、イントラ予測を使用してビデオデータをコーディングするときのコーディング効率を改善し得る。詳細には、本開示は、総最確モードリストを構築し、次いで、総最確モードリストから1次最確モードリストおよび2次最確モードリストを構築するための技法について説明する。1次最確モードリストおよび2次最確モードリストは、隣接ブロックからのイントラ予測モード、ならびに隣接ブロックのイントラ予測モードからオフセットされたイントラ予測モードを含み得る。本開示の技法は、1次最確モードリストおよび2次最確モードリストを生成する効率を改善し得る。 In general, this disclosure describes techniques for determining a most probable mode (MPM) list for intra prediction and determining an intra prediction mode from the most probable mode list. The techniques of this disclosure may improve coding efficiency when coding video data using intra prediction. In particular, this disclosure describes techniques for constructing a total most probable mode list and then constructing a first order most probable mode list and a second order most probable mode list from the total most probable mode list. The first most probable mode list and the second most probable mode list may include intra prediction modes from neighboring blocks as well as intra prediction modes offset from the intra prediction modes of neighboring blocks. The techniques of this disclosure may improve the efficiency of generating first-order most probable mode lists and second-order most probable mode lists.

一例では、方法は、N個のエントリを含む総最確モードリストを構築するステップであって、総最確モードリストのN個のエントリがイントラ予測モードであり、平面モードが総最確モードリストの中の1番目のエントリである、ステップと、総最確モードリストの中の最初のNp個のエントリから1次最確モードリストを構築するステップであって、NpがN未満である、ステップと、総最確モードリストの中の残り(N-Np個)のエントリから2次最確モードリストを構築するステップと、1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定するステップと、ビデオデータの復号されたブロックを生成するために、現在のイントラ予測モードを使用してビデオデータの現在ブロックを復号するステップとを含む。 In one example, the method includes constructing a total most probable mode list including N entries, wherein N entries of the total most probable mode list are intra-predicted modes and planar modes are in the total most probable mode list. and constructing a first-order most probable mode list from the first Np entries in the total most probable mode list, where Np is less than N. and constructing a quadratic most probable mode list from the remaining (N-Np) entries in the total most probable mode list; determining a current intra prediction mode for the current block of data; and decoding the current block of video data using the current intra prediction mode to produce a decoded block of video data. including.

別の例では、デバイスは、メモリと、N個のエントリを含む総最確モードリストを構築することであって、総最確モードリストのN個のエントリがイントラ予測モードであり、平面モードが総最確モードリストの中の1番目のエントリである、構築することと、総最確モードリストの中の最初のNp個のエントリから1次最確モードリストを構築することであって、NpがN未満である、構築することと、総最確モードリストの中の残り(N-Np個)のエントリから2次最確モードリストを構築することと、1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定することと、ビデオデータの復号されたブロックを生成するために、現在のイントラ予測モードを使用してビデオデータの現在ブロックを復号することとを行うように構成された1つまたは複数のプロセッサとを含む。 In another example, the device has a memory and constructs a total most probable mode list including N entries, wherein N entries of the total most probable mode list are intra-predicted modes and the planar modes are the first entry in the total most probable mode list, and constructing a first order most probable mode list from the first Np entries in the total most probable mode list, the first order most probable mode list being Np is less than N, constructing a quadratic most probable mode list from the remaining (N-Np) entries in the total most probable mode list, and constructing a quadratic most probable mode list or a quadratic most probable mode list Determining the current intra prediction mode for the current block of video data using the most probable mode list and using the current intra prediction mode to generate the decoded block of video data and one or more processors configured to decode the current block of data.

別の例では、デバイスは、N個のエントリを含む総最確モードリストを構築するための手段であって、総最確モードリストのN個のエントリがイントラ予測モードであり、平面モードが総最確モードリストの中の1番目のエントリである、手段と、総最確モードリストの中の最初のNp個のエントリから1次最確モードリストを構築するための手段であって、NpがN未満である、手段と、総最確モードリストの中の残り(N-Np個)のエントリから2次最確モードリストを構築するための手段と、1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定するための手段と、ビデオデータの復号されたブロックを生成するために、現在のイントラ予測モードを使用してビデオデータの現在ブロックを復号するための手段とを含む。 In another example, the device is means for constructing a total most probable mode list including N entries, wherein N entries of the total most probable mode list are intra-predicted modes and the planar modes are total a first entry in the most probable mode list; and means for constructing a first order most probable mode list from the first Np entries in the total most probable mode list, where Np is the first entry in the most probable mode list; means for constructing a second-order most probable mode list from the remaining (N-Np) entries in the total most probable mode list, and a first-order most probable mode list or a second-order most probable mode list, means for determining a current intra-prediction mode for a current block of video data using a mode list; and using the current intra-prediction mode to generate a decoded block of video data. and means for decoding the current block of video data.

別の例では、非一時的コンピュータ可読記憶媒体は、実行されると、プログラマブルプロセッサに、N個のエントリを含む総最確モードリストを構築することであって、総最確モードリストのN個のエントリがイントラ予測モードであり、平面モードが総最確モードリストの中の1番目のエントリである、構築することと、総最確モードリストの中の最初のNp個のエントリから1次最確モードリストを構築することであって、NpがN未満である、構築することと、総最確モードリストの中の残り(N-Np個)のエントリから2次最確モードリストを構築することと、1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定することと、ビデオデータの復号されたブロックを生成するために、現在のイントラ予測モードを使用してビデオデータの現在ブロックを復号することとを行わせる命令で符号化される。 In another example, the non-transitory computer-readable storage medium, when executed, causes the programmable processor to construct a total most probable mode list including N entries, the N entries of the total most probable mode list. is the intra-prediction mode, and the planar mode is the first entry in the total most probable mode list. Constructing a definite mode list, where Np is less than N, and constructing a quadratic most probable mode list from the remaining (N-Np) entries in the total most probable mode list. determining a current intra-prediction mode for a current block of video data using a first-order most probable mode list or a second-order most probable mode list; and generating a decoded block of video data. and decode the current block of video data using the current intra-prediction mode.

別の例では、デバイスは、メモリと、N個のエントリを含む総最確モードリストを構築することであって、総最確モードリストのN個のエントリがイントラ予測モードであり、平面モードが総最確モードリストの中の1番目のエントリである、構築することと、総最確モードリストの中の最初のNp個のエントリから1次最確モードリストを構築することであって、NpがN未満である、構築することと、総最確モードリストの中の残り(N-Np個)のエントリから2次最確モードリストを構築することと、1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定することと、ビデオデータの符号化されたブロックを生成するために、現在のイントラ予測モードを使用してビデオデータの現在ブロックを符号化することとを行うように構成された1つまたは複数のプロセッサとを含む。 In another example, the device has a memory and constructs a total most probable mode list including N entries, wherein N entries of the total most probable mode list are intra-predicted modes and the planar modes are the first entry in the total most probable mode list, and constructing a first order most probable mode list from the first Np entries in the total most probable mode list, where Np is less than N, constructing a quadratic most probable mode list from the remaining (N-Np) entries in the total most probable mode list, and constructing a quadratic most probable mode list or a quadratic most probable mode list determining a current intra-prediction mode for the current block of video data using the most probable mode list and using the current intra-prediction mode to generate an encoded block of video data; and one or more processors configured to encode a current block of video data.

1つまたは複数の例の詳細が、添付の図面および以下の説明に記載される。他の特徴、目的、および利点は、説明、図面、および特許請求の範囲から明らかになるであろう。 The details of one or more examples are set forth in the accompanying drawings and the description below. Other features, objects, and advantages will be apparent from the description, drawings, and claims.

本開示の技法を実行し得る例示的なビデオ符号化および復号システムを示すブロック図である。FIG. 1 is a block diagram illustrating an example video encoding and decoding system that may implement techniques of this disclosure. 最確モードリストを導出するために使用される隣接ブロックの一例を示す概念図である。FIG. 3 is a conceptual diagram illustrating an example of adjacent blocks used to derive a most probable mode list. 最確モードリストを導出するために使用される隣接ブロックの別の例を示す概念図である。FIG. 7 is a conceptual diagram illustrating another example of adjacent blocks used to derive a most probable mode list. 例示的な4分木2分木(QTBT)構造を示す概念図である。FIG. 2 is a conceptual diagram showing an exemplary quadtree binary tree (QTBT) structure. 対応するコーディングツリーユニット(CTU)を示す概念図である。FIG. 2 is a conceptual diagram showing a corresponding coding tree unit (CTU). 本開示の技法を実行し得る例示的なビデオエンコーダを示すブロック図である。FIG. 1 is a block diagram illustrating an example video encoder that may implement techniques of this disclosure. 本開示の技法を実行し得る例示的なビデオデコーダを示すブロック図である。1 is a block diagram illustrating an example video decoder that may implement techniques of this disclosure. FIG. 本開示の技法による、現在ブロックを符号化するための例示的な方法を示すフローチャートである。2 is a flowchart illustrating an example method for encoding a current block in accordance with techniques of this disclosure. 本開示の技法による、現在ブロックを復号するための例示的な方法を示すフローチャートである。3 is a flowchart illustrating an example method for decoding a current block in accordance with techniques of this disclosure. 本開示の技法による、現在ブロックを符号化するための別の例示的な方法を示すフローチャートである。5 is a flowchart illustrating another example method for encoding a current block in accordance with techniques of this disclosure. 本開示の技法による、現在ブロックを復号するための別の例示的な方法を示すフローチャートである。3 is a flowchart illustrating another example method for decoding a current block in accordance with the techniques of this disclosure.

多用途ビデオコーディング(VVC)は、幅広い用途向けにHEVCを超える相当な圧縮能力を実現するために、ITU-TおよびISO/IECのJoint Video Experts Team(JVET)によって開発された。VVC仕様は2020年7月に確定され、ITU-TとISO/IECの両方によって公開された。VVC仕様は、規範となるビットストリームおよびピクチャフォーマット、高レベルシンタックス(HLS)およびコーディングユニットレベルシンタックス、ならびにパースおよび復号プロセスを指定している。VVCはまた、付属書類においてプロファイル/ティア/レベル(PTL)制限、バイトストリームフォーマット、仮想参照デコーダおよび補足エンハンスメント情報(SEI)を指定している。 Versatile Video Coding (VVC) was developed by the ITU-T and ISO/IEC Joint Video Experts Team (JVET) to provide substantial compression capabilities over HEVC for a wide range of applications. The VVC specification was finalized in July 2020 and published by both ITU-T and ISO/IEC. The VVC specification specifies normative bitstream and picture formats, high-level syntax (HLS) and coding unit-level syntax, and parsing and decoding processes. VVC also specifies Profile/Tier/Level (PTL) restrictions, byte stream formats, virtual reference decoders, and Supplemental Enhancement Information (SEI) in the Annex.

一般に、本開示は、イントラ予測のための最確モードリストを決定し、最確モードリストからイントラ予測モードを決定するための技法について説明する。本開示の技法は、1次最確モードリストおよび2次最確モードリストを生成する効率を改善し得る。たとえば、ビデオエンコーダおよび/またはビデオデコーダは、N個のエントリを含む総最確モードリストを構築することであって、総最確モードリストのN個のエントリがイントラ予測モードである、構築することと、総最確モードリストの中の最初のNp個のエントリから1次最確モードリストを構築することであって、NpがN未満である、構築することと、総最確モードリストの中の残り(N-Np個)のエントリから2次最確モードリストを構築することと、1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのためのイントラ予測モードを決定することとを行うように構成され得る。 In general, this disclosure describes techniques for determining a most probable mode list for intra prediction and determining an intra prediction mode from the most probable mode list. The techniques of this disclosure may improve the efficiency of generating first-order most probable mode lists and second-order most probable mode lists. For example, the video encoder and/or video decoder may construct a total most probable mode list containing N entries, where N entries of the total most probable mode list are intra-prediction modes. and constructing a first-order most probable mode list from the first Np entries in the total most probable mode list, where Np is less than N; and intra-prediction for the current block of video data using the first-order most probable mode list or the second-order most probable mode list from the remaining (N-Np) entries. and determining a mode.

図1は、本開示の技法を実行し得る例示的なビデオ符号化および復号システム100を示すブロック図である。本開示の技法は、一般に、ビデオデータをコーディング(符号化および/または復号)することを対象とする。一般に、ビデオデータは、ビデオを処理するための任意のデータを含む。したがって、ビデオデータは、未加工の符号化されていないビデオ、符号化されたビデオ、復号された(たとえば、再構成された)ビデオ、およびシグナリングデータなどのビデオメタデータを含み得る。 FIG. 1 is a block diagram illustrating an example video encoding and decoding system 100 that may implement the techniques of this disclosure. The techniques of this disclosure are generally directed to coding (encoding and/or decoding) video data. Generally, video data includes any data for processing video. Accordingly, video data may include raw unencoded video, encoded video, decoded (eg, reconstructed) video, and video metadata such as signaling data.

図1に示すように、システム100は、この例では、宛先デバイス116によって復号および表示されるべき、符号化されたビデオデータを提供するソースデバイス102を含む。具体的には、ソースデバイス102は、コンピュータ可読媒体110を介して宛先デバイス116にビデオデータを提供する。ソースデバイス102および宛先デバイス116は、デスクトップコンピュータ、ノートブック(すなわち、ラップトップ)コンピュータ、モバイルデバイス、タブレットコンピュータ、セットトップボックス、スマートフォンなどの電話ハンドセット、テレビジョン、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲーミングコンソール、ビデオストリーミングデバイス、ブロードキャスト受信機デバイスなどを含む、広範囲にわたるデバイスのいずれかを備えてもよい。場合によっては、ソースデバイス102および宛先デバイス116は、ワイヤレス通信用に装備されることがあり、したがって、ワイヤレス通信デバイスと呼ばれることがある。 As shown in FIG. 1, system 100 includes, in this example, a source device 102 that provides encoded video data to be decoded and displayed by a destination device 116. Specifically, source device 102 provides video data to destination device 116 via computer-readable medium 110. Source device 102 and destination device 116 may include desktop computers, notebook (i.e., laptop) computers, mobile devices, tablet computers, set-top boxes, telephone handsets such as smartphones, televisions, cameras, display devices, digital media players, It may include any of a wide variety of devices, including video gaming consoles, video streaming devices, broadcast receiver devices, and the like. In some cases, source device 102 and destination device 116 may be equipped for wireless communication and may therefore be referred to as wireless communication devices.

図1の例では、ソースデバイス102は、ビデオソース104、メモリ106、ビデオエンコーダ200、および出力インターフェース108を含む。宛先デバイス116は、入力インターフェース122、ビデオデコーダ300、メモリ120、およびディスプレイデバイス118を含む。本開示によれば、ソースデバイス102のビデオエンコーダ200および宛先デバイス116のビデオデコーダ300は、イントラ予測のための最確モードリストを導出するための技法を適用するように構成され得る。したがって、ソースデバイス102はビデオ符号化デバイスの一例を表し、宛先デバイス116はビデオ復号デバイスの一例を表す。他の例では、ソースデバイスおよび宛先デバイスは、他の構成要素または構成を含み得る。たとえば、ソースデバイス102は、外部カメラなどの外部ビデオソースからビデオデータを受信し得る。同様に、宛先デバイス116は、一体型ディスプレイデバイスを含むのではなく、外部ディスプレイデバイスとインターフェースし得る。 In the example of FIG. 1, source device 102 includes video source 104, memory 106, video encoder 200, and output interface 108. Destination device 116 includes input interface 122, video decoder 300, memory 120, and display device 118. In accordance with this disclosure, video encoder 200 of source device 102 and video decoder 300 of destination device 116 may be configured to apply techniques for deriving a most probable mode list for intra prediction. Thus, source device 102 represents an example of a video encoding device, and destination device 116 represents an example of a video decoding device. In other examples, the source device and destination device may include other components or configurations. For example, source device 102 may receive video data from an external video source, such as an external camera. Similarly, destination device 116 may interface with an external display device rather than including an integrated display device.

図1に示すようなシステム100は一例にすぎない。一般に、任意のデジタルビデオ符号化および/または復号デバイスは、イントラ予測のための最確モードリストを導出するための技法を実行し得る。ソースデバイス102および宛先デバイス116は、ソースデバイス102が宛先デバイス116に送信するためのコーディングされたビデオデータを生成するようなコーディングデバイスの例にすぎない。本開示は、データのコーディング(符号化および/または復号)を実行するデバイスを「コーディング」デバイスと呼ぶ。したがって、ビデオエンコーダ200およびビデオデコーダ300は、コーディングデバイス、具体的には、それぞれ、ビデオエンコーダおよびビデオデコーダの例を表す。いくつかの例では、ソースデバイス102および宛先デバイス116は、ソースデバイス102および宛先デバイス116の各々がビデオ符号化および復号構成要素を含むように実質的に対称的な方法で動作し得る。したがって、システム100は、たとえば、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、またはビデオテレフォニーのための、ソースデバイス102と宛先デバイス116との間の一方向または双方向のビデオ送信をサポートし得る。 A system 100 as shown in FIG. 1 is only one example. In general, any digital video encoding and/or decoding device may implement techniques for deriving a most probable mode list for intra prediction. Source device 102 and destination device 116 are only examples of coding devices such that source device 102 generates coded video data for transmission to destination device 116. This disclosure refers to a device that performs coding (encoding and/or decoding) of data as a "coding" device. Accordingly, video encoder 200 and video decoder 300 represent examples of coding devices, specifically video encoders and video decoders, respectively. In some examples, source device 102 and destination device 116 may operate in a substantially symmetrical manner such that each of source device 102 and destination device 116 includes video encoding and decoding components. Thus, system 100 may support one-way or two-way video transmission between source device 102 and destination device 116, for example, for video streaming, video playback, video broadcasting, or video telephony.

一般に、ビデオソース104は、ビデオデータ(すなわち、未加工の符号化されていないビデオデータ)のソースを表し、ビデオデータの連続した一連のピクチャ(「フレーム」とも呼ばれる)をビデオエンコーダ200に提供し、ビデオエンコーダ200は、ピクチャのためのデータを符号化する。ソースデバイス102のビデオソース104は、ビデオカメラ、以前にキャプチャされた未加工ビデオを含むビデオアーカイブ、および/またはビデオコンテンツプロバイダからビデオを受信するためのビデオフィードインターフェースなどの、ビデオキャプチャデバイスを含み得る。さらなる代替として、ビデオソース104は、ソースビデオとしてのコンピュータグラフィックスベースのデータ、またはライブビデオとアーカイブされたビデオとコンピュータ生成されたビデオとの組合せを生成し得る。各場合において、ビデオエンコーダ200は、キャプチャされた、事前にキャプチャされた、またはコンピュータ生成されたビデオデータを符号化する。ビデオエンコーダ200は、受信された順序(「表示順序」と呼ばれることがある)からコーディング用のコーディング順序にピクチャを並べ替え得る。ビデオエンコーダ200は、符号化されたビデオデータを含むビットストリームを生成し得る。次いで、ソースデバイス102は、たとえば、宛先デバイス116の入力インターフェース122による受信および/または取出しのために、符号化されたビデオデータを出力インターフェース108を介してコンピュータ可読媒体110上に出力し得る。 Generally, video source 104 represents a source of video data (i.e., raw, unencoded video data) that provides a continuous series of pictures (also referred to as “frames”) of video data to video encoder 200. , video encoder 200 encodes data for pictures. Video source 104 of source device 102 may include a video capture device, such as a video camera, a video archive containing previously captured raw video, and/or a video feed interface for receiving video from a video content provider. . As a further alternative, video source 104 may produce computer graphics-based data as the source video, or a combination of live, archived, and computer-generated video. In each case, video encoder 200 encodes captured, pre-captured, or computer-generated video data. Video encoder 200 may reorder pictures from a received order (sometimes referred to as a "display order") to a coding order for coding. Video encoder 200 may generate a bitstream that includes encoded video data. Source device 102 may then output the encoded video data via output interface 108 onto computer-readable medium 110, for example, for reception and/or retrieval by input interface 122 of destination device 116.

ソースデバイス102のメモリ106および宛先デバイス116のメモリ120は、汎用メモリを表す。いくつかの例では、メモリ106、120は、未加工ビデオデータ、たとえば、ビデオソース104からの未加工ビデオと、ビデオデコーダ300からの未加工の復号されたビデオデータとを記憶し得る。追加または代替として、メモリ106、120は、たとえば、それぞれ、ビデオエンコーダ200およびビデオデコーダ300によって実行可能なソフトウェア命令を記憶し得る。メモリ106およびメモリ120は、この例ではビデオエンコーダ200およびビデオデコーダ300とは別々に示されているが、ビデオエンコーダ200およびビデオデコーダ300は、機能的に同様のまたは等価な目的で内部メモリも含み得ることを理解されたい。さらに、メモリ106、120は、符号化されたビデオデータ、たとえば、ビデオエンコーダ200からの出力およびビデオデコーダ300への入力を記憶し得る。いくつかの例では、メモリ106、120の一部は、たとえば、未加工の、復号された、および/または符号化されたビデオデータを記憶するための、1つまたは複数のビデオバッファとして割り振られ得る。 Memory 106 of source device 102 and memory 120 of destination device 116 represent general purpose memory. In some examples, memories 106, 120 may store raw video data, eg, raw video from video source 104 and raw decoded video data from video decoder 300. Additionally or alternatively, memories 106, 120 may store software instructions executable by video encoder 200 and video decoder 300, respectively, for example. Although memory 106 and memory 120 are shown separately from video encoder 200 and video decoder 300 in this example, video encoder 200 and video decoder 300 also include internal memory for functionally similar or equivalent purposes. I hope you understand what you get. Additionally, memories 106, 120 may store encoded video data, such as output from video encoder 200 and input to video decoder 300. In some examples, a portion of memory 106, 120 is allocated as one or more video buffers, e.g., for storing raw, decoded, and/or encoded video data. obtain.

コンピュータ可読媒体110は、符号化されたビデオデータをソースデバイス102から宛先デバイス116にトランスポートすることが可能な任意のタイプの媒体またはデバイスを表し得る。一例では、コンピュータ可読媒体110は、たとえば、無線周波数ネットワークまたはコンピュータベースのネットワークを介して、ソースデバイス102が符号化されたビデオデータを宛先デバイス116にリアルタイムで直接送信することを可能にする通信媒体を表す。ワイヤレス通信プロトコルなどの通信規格に従って、出力インターフェース108が符号化されたビデオデータを含む送信信号を変調し得、入力インターフェース122が受信された送信信号を復調し得る。通信媒体は、無線周波数(RF)スペクトルまたは1つもしくは複数の物理伝送線路などの、任意のワイヤレスまたはワイヤード通信媒体を備え得る。通信媒体は、ローカルエリアネットワーク、ワイドエリアネットワーク、またはインターネットなどのグローバルネットワークなどの、パケットベースネットワークの一部を形成し得る。通信媒体は、ルータ、スイッチ、基地局、またはソースデバイス102から宛先デバイス116への通信を容易にするために有用であり得る任意の他の機器を含み得る。 Computer-readable medium 110 may represent any type of medium or device that can transport encoded video data from source device 102 to destination device 116. In one example, computer-readable medium 110 is a communication medium that enables source device 102 to transmit encoded video data directly to destination device 116 in real-time, such as over a radio frequency network or a computer-based network. represents. Output interface 108 may modulate the transmitted signal containing encoded video data and input interface 122 may demodulate the received transmitted signal in accordance with a communication standard, such as a wireless communication protocol. A communication medium may comprise any wireless or wired communication medium, such as the radio frequency (RF) spectrum or one or more physical transmission lines. The communication medium may form part of a packet-based network, such as a local area network, wide area network, or global network such as the Internet. Communication media may include routers, switches, base stations, or any other equipment that may be useful for facilitating communication from source device 102 to destination device 116.

いくつかの例では、ソースデバイス102は、符号化されたデータを出力インターフェース108から記憶デバイス112に出力し得る。同様に、宛先デバイス116は、入力インターフェース122を介して、記憶デバイス112からの符号化されたデータにアクセスし得る。記憶デバイス112は、ハードドライブ、ブルーレイディスク、DVD、CD-ROM、フラッシュメモリ、揮発性もしくは不揮発性メモリ、または符号化されたビデオデータを記憶するための任意の他の好適なデジタル記憶媒体などの、様々な分散されたまたはローカルでアクセスされるデータ記憶媒体のいずれかを含み得る。 In some examples, source device 102 may output encoded data from output interface 108 to storage device 112. Similarly, destination device 116 may access encoded data from storage device 112 via input interface 122. Storage device 112 may include a hard drive, Blu-ray disc, DVD, CD-ROM, flash memory, volatile or non-volatile memory, or any other suitable digital storage medium for storing encoded video data. , may include any of a variety of distributed or locally accessed data storage media.

いくつかの例では、ソースデバイス102は、符号化されたビデオデータを、ソースデバイス102によって生成された符号化されたビデオデータを記憶し得るファイルサーバ114または別の中間記憶デバイスに出力し得る。宛先デバイス116は、ストリーミングまたはダウンロードを介して、ファイルサーバ114からの記憶されたビデオデータにアクセスし得る。 In some examples, source device 102 may output encoded video data to file server 114 or another intermediate storage device that may store encoded video data generated by source device 102. Destination device 116 may access stored video data from file server 114 via streaming or downloading.

ファイルサーバ114は、符号化されたビデオデータを記憶し、その符号化されたビデオデータを宛先デバイス116に送信することが可能な任意のタイプのサーバデバイスであり得る。ファイルサーバ114は、(たとえば、ウェブサイト用の)ウェブサーバ、(ファイル転送プロトコル(FTP)または単方向トランスポートを介したファイル配信(FLUTE:File Delivery over Unidirectional Transport)プロトコルなどの)ファイル転送プロトコルサービスを提供するように構成されたサーバ、コンテンツ配信ネットワーク(CDN)デバイス、ハイパーテキスト転送プロトコル(HTTP)サーバ、マルチメディアブロードキャストマルチキャストサービス(MBMS)もしくは拡張MBMS(eMBMS)サーバ、および/またはネットワークアタッチトストレージ(NAS)デバイスを表し得る。ファイルサーバ114は、追加または代替として、動的適応ストリーミングオーバーHTTP(DASH:Dynamic Adaptive Streaming over HTTP)、HTTPライブストリーミング(HLS:HTTP Live Streaming)、リアルタイムストリーミングプロトコル(RTSP:Real Time Streaming Protocol)、HTTP動的ストリーミング(HTTP Dynamic Streaming)などの1つまたは複数のHTTPストリーミングプロトコルを実装し得る。 File server 114 may be any type of server device capable of storing encoded video data and transmitting the encoded video data to destination device 116. File server 114 may include a web server (e.g., for a website), a file transfer protocol service (such as File Transfer Protocol (FTP) or File Delivery over Unidirectional Transport (FLUTE) protocol). a server, content delivery network (CDN) device, hypertext transfer protocol (HTTP) server, multimedia broadcast multicast service (MBMS) or enhanced MBMS (eMBMS) server configured to provide (NAS) device. File server 114 may additionally or alternatively support Dynamic Adaptive Streaming over HTTP (DASH), HTTP Live Streaming (HLS), Real Time Streaming Protocol (RTSP), HTTP One or more HTTP streaming protocols may be implemented, such as HTTP Dynamic Streaming.

宛先デバイス116は、インターネット接続を含む任意の標準的なデータ接続を通じて、ファイルサーバ114からの符号化されたビデオデータにアクセスし得る。これは、ワイヤレスチャネル(たとえば、Wi-Fi接続)、ワイヤード接続(たとえば、デジタル加入者回線(DSL)、ケーブルモデムなど)、またはファイルサーバ114上に記憶された符号化されたビデオデータにアクセスするのに適した両方の組合せを含み得る。入力インターフェース122は、ファイルサーバ114からメディアデータを取り出すかもしくは受信するための上記で説明した様々なプロトコルまたはメディアデータを取り出すための他のそのようなプロトコルのうちのいずれか1つまたは複数に従って動作するように構成され得る。 Destination device 116 may access encoded video data from file server 114 through any standard data connection, including an Internet connection. It accesses encoded video data stored on a wireless channel (e.g., Wi-Fi connection), a wired connection (e.g., digital subscriber line (DSL), cable modem, etc.), or on a file server 114. may include a suitable combination of both. Input interface 122 operates according to any one or more of the various protocols described above for retrieving or receiving media data from file server 114 or other such protocols for retrieving media data. may be configured to do so.

出力インターフェース108および入力インターフェース122は、ワイヤレス送信機/受信機、モデム、ワイヤードネットワーキング構成要素(たとえば、イーサネットカード)、様々なIEEE802.11規格のいずれかに従って動作するワイヤレス通信構成要素、または他の物理的構成要素を表し得る。出力インターフェース108および入力インターフェース122がワイヤレス構成要素を備える例では、出力インターフェース108および入力インターフェース122は、4G、4G-LTE(ロングタームエボリューション)、LTEアドバンスト、5Gなどのセルラー通信規格に従って、符号化されたビデオデータなどのデータを転送するように構成され得る。出力インターフェース108がワイヤレス送信機を備えるいくつかの例では、出力インターフェース108および入力インターフェース122は、IEEE802.11仕様、IEEE802.15仕様(たとえば、ZigBee(商標))、Bluetooth(商標)規格などの他のワイヤレス規格に従って、符号化されたビデオデータなどのデータを転送するように構成され得る。いくつかの例では、ソースデバイス102および/または宛先デバイス116は、それぞれのシステムオンチップ(SoC)デバイスを含み得る。たとえば、ソースデバイス102は、ビデオエンコーダ200および/または出力インターフェース108に起因する機能を実行するためのSoCデバイスを含み得、宛先デバイス116は、ビデオデコーダ300および/または入力インターフェース122に起因する機能を実行するためのSoCデバイスを含み得る。 Output interface 108 and input interface 122 may be a wireless transmitter/receiver, modem, wired networking component (e.g., an Ethernet card), wireless communication component operating in accordance with any of the various IEEE 802.11 standards, or other physical can represent a component. In examples where output interface 108 and input interface 122 comprise wireless components, output interface 108 and input interface 122 are encoded according to cellular communication standards such as 4G, 4G-LTE (Long Term Evolution), LTE Advanced, 5G, etc. The device may be configured to transfer data such as video data. In some examples where output interface 108 comprises a wireless transmitter, output interface 108 and input interface 122 may be compatible with other standards such as the IEEE 802.11 specification, the IEEE 802.15 specification (e.g., ZigBee(TM)), the Bluetooth(TM) standard, etc. may be configured to transfer data, such as encoded video data, in accordance with a wireless standard. In some examples, source device 102 and/or destination device 116 may include respective system-on-chip (SoC) devices. For example, source device 102 may include an SoC device for performing functions attributable to video encoder 200 and/or output interface 108, and destination device 116 may include a SoC device for performing functions attributable to video decoder 300 and/or input interface 122. May include an SoC device for execution.

本開示の技法は、オーバージエアテレビジョンブロードキャスト、ケーブルテレビジョン送信、衛星テレビジョン送信、動的適応ストリーミングオーバーHTTP(DASH)などのインターネットストリーミングビデオ送信、データ記憶媒体上に符号化されたデジタルビデオ、データ記憶媒体上に記憶されたデジタルビデオの復号、または他の適用例などの、様々なマルチメディア適用例のいずれかをサポートするビデオコーディングに適用され得る。 The techniques of this disclosure can be applied to over-the-air television broadcasts, cable television transmissions, satellite television transmissions, Internet streaming video transmissions such as Dynamic Adaptive Streaming over HTTP (DASH), and digital video encoded on a data storage medium. It may be applied to video coding to support any of a variety of multimedia applications, such as decoding digital video stored on a data storage medium, or other applications.

宛先デバイス116の入力インターフェース122は、コンピュータ可読媒体110(たとえば、通信媒体、記憶デバイス112、ファイルサーバ114など)から、符号化されたビデオビットストリームを受信する。符号化されたビデオビットストリームは、ビデオブロックまたは他のコーディングされたユニット(たとえば、スライス、ピクチャ、ピクチャグループ、シーケンスなど)の特性および/または処理を記述する値を有するシンタックス要素などの、ビデオエンコーダ200によって定義され、ビデオデコーダ300によっても使用されるシグナリング情報を含み得る。ディスプレイデバイス118は、復号されたビデオデータの復号されたピクチャをユーザに表示する。ディスプレイデバイス118は、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、または別のタイプのディスプレイデバイスなどの、様々なディスプレイデバイスのいずれかを表し得る。 Input interface 122 of destination device 116 receives an encoded video bitstream from computer-readable medium 110 (eg, a communication medium, storage device 112, file server 114, etc.). A coded video bitstream consists of video elements, such as syntax elements having values that describe the characteristics and/or processing of video blocks or other coded units (e.g., slices, pictures, picture groups, sequences, etc.). It may include signaling information defined by encoder 200 and also used by video decoder 300. Display device 118 displays decoded pictures of the decoded video data to the user. Display device 118 may represent any of a variety of display devices, such as a liquid crystal display (LCD), a plasma display, an organic light emitting diode (OLED) display, or another type of display device.

図1には示されていないが、いくつかの例では、ビデオエンコーダ200およびビデオデコーダ300は各々、オーディオエンコーダおよび/またはオーディオデコーダと統合されることがあり、共通のデータストリーム中のオーディオとビデオの両方を含む多重化されたストリームを処理するために、適切なMUX-DEMUXユニット、または他のハードウェアおよび/もしくはソフトウェアを含み得る。適用可能な場合、MUX-DEMUXユニットは、ITU H.223マルチプレクサプロトコル、またはユーザデータグラムプロトコル(UDP)などの他のプロトコルに準拠し得る。 Although not shown in FIG. 1, in some examples, video encoder 200 and video decoder 300 may each be integrated with an audio encoder and/or audio decoder, allowing audio and video in a common data stream. A suitable MUX-DEMUX unit, or other hardware and/or software, may be included to process multiplexed streams containing both. If applicable, the MUX-DEMUX unit may comply with the ITU H.223 multiplexer protocol or other protocols such as User Datagram Protocol (UDP).

ビデオエンコーダ200およびビデオデコーダ300は各々、1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェアまたはそれらの任意の組合せなどの、様々な好適なエンコーダおよび/またはデコーダ回路のいずれかとして実装され得る。技法が部分的にソフトウェアにおいて実装されるとき、デバイスは、好適な非一時的コンピュータ可読媒体にソフトウェア用の命令を記憶し、本開示の技法を実行するために1つまたは複数のプロセッサを使用してハードウェアにおいて命令を実行し得る。ビデオエンコーダ200およびビデオデコーダ300の各々は、1つまたは複数のエンコーダまたはデコーダに含まれることがあり、それらのいずれも、それぞれのデバイスにおいて複合エンコーダ/デコーダ(CODEC)の一部として統合されることがある。ビデオエンコーダ200および/またはビデオデコーダ300を含むデバイスは、集積回路、マイクロプロセッサ、および/またはセルラー電話などのワイヤレス通信デバイスを備え得る。 Video encoder 200 and video decoder 300 each include one or more microprocessors, digital signal processors (DSPs), application specific integrated circuits (ASICs), field programmable gate arrays (FPGAs), discrete logic, software, hardware, May be implemented as any of a variety of suitable encoder and/or decoder circuits, such as firmware or any combination thereof. When the techniques are partially implemented in software, the device stores instructions for the software on a suitable non-transitory computer-readable medium and uses one or more processors to execute the techniques of this disclosure. can execute instructions in hardware. Each of video encoder 200 and video decoder 300 may be included in one or more encoders or decoders, any of which may be integrated as part of a combined encoder/decoder (CODEC) in their respective devices. There is. Devices including video encoder 200 and/or video decoder 300 may include integrated circuits, microprocessors, and/or wireless communication devices such as cellular telephones.

ビデオエンコーダ200およびビデオデコーダ300は、高効率ビデオコーディング(HEVC)とも呼ばれるITU-T H.265などのビデオコーディング規格、またはマルチビューおよび/もしくはスケーラブルビデオコーディング拡張などのその拡張に従って動作し得る。代替として、ビデオエンコーダ200およびビデオデコーダ300は、多用途ビデオコーディング(VVC)とも呼ばれるITU-T H.266などの、他のプロプライエタリ規格または業界規格に従って動作し得る。VVC規格の草案は、Brossら、「Versatile Video Coding (Draft 10)」、ITU-T SG 16 WP 3およびISO/IEC JTC 1/SC 29/WG 11のJoint Video Experts Team(JVET)、第18回会議:遠隔会議による、2020年6月22日~7月1日、JVET-S2001-vA(以下では「VVC Draft 10」)に記載されている。しかしながら、本開示の技法は、いかなる特定のコーディング規格にも限定されない。 Video encoder 200 and video decoder 300 may operate according to a video coding standard such as ITU-T H.265, also referred to as High Efficiency Video Coding (HEVC), or extensions thereof such as multi-view and/or scalable video coding extensions. Alternatively, video encoder 200 and video decoder 300 may operate according to other proprietary or industry standards, such as ITU-T H.266, also referred to as Versatile Video Coding (VVC). The draft VVC standard is published by Bross et al., “Versatile Video Coding (Draft 10),” Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11, 18th Meeting: via remote conference, from June 22 to July 1, 2020, as described in JVET-S2001-vA (hereinafter referred to as “VVC Draft 10”). However, the techniques of this disclosure are not limited to any particular coding standard.

一般に、ビデオエンコーダ200およびビデオデコーダ300は、ピクチャのブロックベースのコーディングを実行し得る。「ブロック」という用語は、一般に、処理される(たとえば、符号化および/または復号プロセスにおいて符号化される、復号される、または他の方法で使用される)べきデータを含む構造を指す。たとえば、ブロックは、ルミナンスおよび/またはクロミナンスデータのサンプルの2次元行列を含み得る。一般に、ビデオエンコーダ200およびビデオデコーダ300は、YUV(たとえば、Y、Cb、Cr)フォーマットで表されるビデオデータをコーディングし得る。すなわち、ピクチャのサンプルのための赤、緑、および青(RGB)データをコーディングするのではなく、ビデオエンコーダ200およびビデオデコーダ300は、ルミナンス成分およびクロミナンス成分をコーディングし得、クロミナンス成分は、赤色相と青色相の両方のクロミナンス成分を含み得る。いくつかの例では、ビデオエンコーダ200が、符号化に先立って、受信されたRGBフォーマットされたデータをYUV表現にコンバートし、ビデオデコーダ300が、YUV表現をRGBフォーマットにコンバートする。代替として、前処理ユニットおよび後処理ユニット(図示せず)が、これらのコンバージョンを実行し得る。 Generally, video encoder 200 and video decoder 300 may perform block-based coding of pictures. The term "block" generally refers to a structure containing data to be processed (eg, encoded, decoded, or otherwise used in an encoding and/or decoding process). For example, a block may include a two-dimensional matrix of samples of luminance and/or chrominance data. Generally, video encoder 200 and video decoder 300 may code video data represented in YUV (eg, Y, Cb, Cr) format. That is, rather than coding red, green, and blue (RGB) data for samples of a picture, video encoder 200 and video decoder 300 may code luminance and chrominance components, where the chrominance component chrominance components of both the blue and blue hues. In some examples, video encoder 200 converts received RGB formatted data to a YUV representation prior to encoding, and video decoder 300 converts the YUV representation to RGB format. Alternatively, pre-processing units and post-processing units (not shown) may perform these conversions.

本開示は、一般に、ピクチャのデータを符号化または復号するプロセスを含めるように、ピクチャのコーディング(たとえば、符号化および復号)に言及することがある。同様に、本開示は、ブロックのためのデータを符号化または復号するプロセスを含めるように、ピクチャのブロックのコーディング、たとえば、予測および/または残差コーディングに言及することがある。符号化されたビデオビットストリームは、一般に、コーディング決定(たとえば、コーディングモード)およびブロックへのピクチャの区分を表すシンタックス要素のための一連の値を含む。したがって、ピクチャまたはブロックをコーディングすることへの言及は、一般に、ピクチャまたはブロックを形成するシンタックス要素のためのコーディング値として理解されるべきである。 This disclosure may generally refer to coding (eg, encoding and decoding) pictures to include the process of encoding or decoding data for a picture. Similarly, this disclosure may refer to coding blocks of pictures, such as predictive and/or residual coding, to include the process of encoding or decoding data for the blocks. An encoded video bitstream typically includes a series of values for syntax elements representing coding decisions (eg, coding modes) and partitioning of pictures into blocks. Accordingly, references to coding a picture or block should generally be understood as coding values for the syntax elements forming the picture or block.

HEVCは、コーディングユニット(CU)、予測ユニット(PU)、および変換ユニット(TU)を含む、様々なブロックを定義する。HEVCによれば、(ビデオエンコーダ200などの)ビデオコーダは、4分木構造に従ってコーディングツリーユニット(CTU)をCUに区分する。すなわち、ビデオコーダは、CTUおよびCUを4個の等しい重複しない正方形に区分し、4分木の各ノードは、0個または4個のいずれかの子ノードを有する。子ノードがないノードは「リーフノード」と呼ばれることがあり、そのようなリーフノードのCUは、1つもしくは複数のPUおよび/または1つもしくは複数のTUを含み得る。ビデオコーダはPUおよびTUをさらに区分し得る。たとえば、HEVCでは、残差4分木(RQT)はTUの区分を表す。HEVCでは、PUはインター予測データを表し、TUは残差データを表す。イントラ予測されるCUは、イントラモード指示などのイントラ予測情報を含む。 HEVC defines various blocks, including coding units (CUs), prediction units (PUs), and transform units (TUs). According to HEVC, a video coder (such as video encoder 200) partitions coding tree units (CTUs) into CUs according to a quadtree structure. That is, the video coder partitions the CTU and CU into four equal non-overlapping squares, where each node in the quadtree has either 0 or 4 child nodes. A node without child nodes may be referred to as a "leaf node," and the CU of such a leaf node may include one or more PUs and/or one or more TUs. A video coder may further partition PUs and TUs. For example, in HEVC, a residual quadrant tree (RQT) represents a partition of a TU. In HEVC, PU represents inter-predicted data and TU represents residual data. A CU that is intra-predicted includes intra-prediction information such as an intra-mode indication.

別の例として、ビデオエンコーダ200およびビデオデコーダ300は、VVCに従って動作するように構成され得る。VVCによれば、(ビデオエンコーダ200などの)ビデオコーダは、ピクチャを複数のコーディングツリーユニット(CTU)に区分する。ビデオエンコーダ200は、4分木2分木(QTBT)構造またはマルチタイプツリー(MTT)構造などのツリー構造に従ってCTUを区分し得る。QTBT構造は、HEVCのCU、PU、およびTUの間の区別などの、複数の区分タイプの概念を排除する。QTBT構造は、2つのレベル、すなわち、4分木区分に従って区分された第1のレベルおよび2分木区分に従って区分された第2のレベルを含む。QTBT構造のルートノードは、CTUに対応する。2分木のリーフノードは、コーディングユニット(CU)に対応する。 As another example, video encoder 200 and video decoder 300 may be configured to operate according to VVC. According to VVC, a video coder (such as video encoder 200) partitions a picture into multiple coding tree units (CTUs). Video encoder 200 may partition CTUs according to a tree structure, such as a quadrilateral tree (QTBT) structure or a multitype tree (MTT) structure. The QTBT structure eliminates the concept of multiple partition types, such as the distinction between HEVC's CU, PU, and TU. The QTBT structure includes two levels: a first level partitioned according to quadtree partitioning and a second level partitioned according to binary partitioning. The root node of the QTBT structure corresponds to the CTU. Leaf nodes of the binary tree correspond to coding units (CUs).

MTT区分構造では、ブロックは、4分木(QT)区分、2分木(BT)区分、および1つまたは複数のタイプの3分木(TT:triple tree)(3分木(TT:ternary tree)とも呼ばれる)区分を使用して区分され得る。3分木(triple tree)または3分木(ternary tree)区分は、ブロックが3つのサブブロックに分割される区分である。いくつかの例では、3分木(triple tree)または3分木(ternary tree)区分は、中心を通って元のブロックを分割することなく、ブロックを3つのサブブロックに分割する。MTTにおける区分タイプ(たとえば、QT、BT、およびTT)は対称または非対称であり得る。 In the MTT partition structure, blocks are divided into quadtree (QT) partitions, binary tree (BT) partitions, and one or more types of ternary tree (TT) partitions. ) can be partitioned using partitions. A triple tree or ternary tree partition is a partition in which a block is divided into three subblocks. In some examples, a triple tree or ternary tree partition divides a block into three subblocks without splitting the original block through the center. The partition types in MTT (eg, QT, BT, and TT) can be symmetric or asymmetric.

いくつかの例では、ビデオエンコーダ200およびビデオデコーダ300は、ルミナンス成分およびクロミナンス成分の各々を表すために単一のQTBTまたはMTT構造を使用し得るが、他の例では、ビデオエンコーダ200およびビデオデコーダ300は、ルミナンス成分のための1つのQTBT/MTT構造および両方のクロミナンス成分のための別のQTBT/MTT構造(またはそれぞれのクロミナンス成分のための2つのQTBT/MTT構造)などの、2つ以上のQTBTまたはMTT構造を使用し得る。 In some examples, video encoder 200 and video decoder 300 may use a single QTBT or MTT structure to represent each of the luminance and chrominance components, while in other examples, video encoder 200 and video decoder 300 can contain two or more QTBT/MTT structures, such as one QTBT/MTT structure for the luminance component and another QTBT/MTT structure for both chrominance components (or two QTBT/MTT structures for each chrominance component). QTBT or MTT structures may be used.

ビデオエンコーダ200およびビデオデコーダ300は、HEVCごとの4分木区分、QTBT区分、MTT区分、または他の区分構造を使用するように構成され得る。説明のために、本開示の技法の記載はQTBT区分に関して提示される。しかしながら、本開示の技法はまた、4分木区分、または他のタイプの区分も使用するように構成されたビデオコーダに適用され得ることを理解されたい。 Video encoder 200 and video decoder 300 may be configured to use quadtree partitioning, QTBT partitioning, MTT partitioning, or other partitioning structures per HEVC. For purposes of explanation, the description of the techniques of this disclosure is presented with respect to the QTBT segment. However, it should be understood that the techniques of this disclosure may also be applied to video coders configured to use quadtree partitioning, or other types of partitioning as well.

いくつかの例では、CTUは、ルーマサンプルのコーディングツリーブロック(CTB)、3つのサンプルアレイを有するピクチャのクロマサンプルの2つの対応するCTB、またはモノクロームピクチャもしくはサンプルをコーディングするために使用される3つの別個の色平面およびシンタックス構造を使用してコーディングされたピクチャのサンプルのCTBを含む。CTBは、CTBへの成分の分割が区分であるような、何らかの値のNに対するサンプルのN×Nブロックであり得る。成分は、4:2:0、4:2:2、もしくは4:4:4カラーフォーマットでピクチャを作成する3つのアレイ(ルーマおよび2つのクロマ)のうちの1つからのアレイまたはそのアレイの単一のサンプル、あるいはモノクロームフォーマットでピクチャを作成するアレイまたはそのアレイの単一のサンプルである。いくつかの例では、コーディングブロックは、コーディングブロックへのCTBの分割が区分であるような、何らかの値のMおよびNに対するサンプルのM×Nブロックである。 In some examples, a CTU is a coding tree block (CTB) of luma samples, two corresponding CTBs of chroma samples of a picture with an array of three samples, or three used to code a monochrome picture or samples. Contains sample CTBs of pictures coded using two distinct color planes and syntax structures. A CTB can be an N×N block of samples for some value of N, such that the division of components into CTBs is piecewise. The components are arrays from or of one of three arrays (luma and two chromas) that create a picture in 4:2:0, 4:2:2, or 4:4:4 color format. A single sample or an array or a single sample of an array that creates a picture in monochrome format. In some examples, the coding block is an M×N block of samples for some value of M and N, such that the division of the CTB into coding blocks is partitioned.

ブロック(たとえば、CTUまたはCU)は、ピクチャにおいて様々な方法でグループ化され得る。一例として、ブリックは、ピクチャにおける特定のタイル内のCTU行の長方形領域を指すことがある。タイルは、ピクチャにおける特定のタイル列および特定のタイル行内のCTUの長方形領域であり得る。タイル列は、ピクチャの高さに等しい高さおよび(たとえば、ピクチャパラメータセットなどにおいて)シンタックス要素によって指定される幅を有する、CTUの長方形領域を指す。タイル行は、(たとえば、ピクチャパラメータセットなどにおいて)シンタックス要素によって指定される高さおよびピクチャの幅に等しい幅を有する、CTUの長方形領域を指す。 Blocks (eg, CTUs or CUs) may be grouped in various ways in a picture. As an example, a brick may refer to a rectangular area of a CTU row within a particular tile in a picture. A tile may be a rectangular region of a CTU within a particular tile column and a particular tile row in a picture. A tile column refers to a rectangular region of a CTU with a height equal to the height of a picture and a width specified by a syntax element (eg, in a picture parameter set, etc.). A tile row refers to a rectangular region of a CTU with a height specified by a syntax element (eg, in a picture parameter set, etc.) and a width equal to the width of the picture.

いくつかの例では、タイルは複数のブリックに区分されてもよく、ブリックの各々はタイル内の1つまたは複数のCTU行を含んでもよい。複数のブリックに区分されないタイルも、ブリックと呼ばれることがある。しかしながら、タイルの真のサブセットであるブリックは、タイルと呼ばれないことがある。 In some examples, a tile may be partitioned into multiple bricks, and each brick may include one or more CTU rows within the tile. Tiles that are not divided into multiple bricks may also be called bricks. However, bricks that are a true subset of tiles may not be called tiles.

ピクチャの中のブリックは、スライスにおいても並べられ得る。スライスは、単一のネットワークアブストラクションレイヤ(NAL)ユニットに独占的に含まれ得る、ピクチャの整数個のブリックであり得る。いくつかの例では、スライスは、ある数の完全なタイル、または、1つのタイルの完全なブリックの連続的なシーケンスのみ、のいずれかを含む。 Bricks in a picture can also be ordered in slices. A slice may be an integer number of bricks of a picture that may be contained exclusively in a single network abstraction layer (NAL) unit. In some examples, a slice includes either a number of complete tiles or only a contiguous sequence of complete bricks of one tile.

本開示は、垂直次元および水平次元に換算して(CUまたは他のビデオブロックなどの)ブロックのサンプル次元を指すために、互換的に「N×N」および「NかけるN(N by N)」、たとえば、16×16サンプルまたは16かける16(16 by 16)サンプルを使用し得る。一般に、16×16 CUは、垂直方向に16個のサンプル(y=16)および水平方向に16個のサンプル(x=16)を有する。同様に、N×N CUは、一般に、垂直方向にN個のサンプルおよび水平方向にN個のサンプルを有し、ここで、Nは負ではない整数値を表す。CUの中のサンプルは、行および列において並べられ得る。さらに、CUは、必ずしも水平方向に垂直方向と同じ数のサンプルを有する必要があるとは限らない。たとえば、CUはN×Mサンプルを備えてもよく、ここで、Mは必ずしもNに等しいとは限らない。 This disclosure uses "N×N" and "N by N" interchangeably to refer to the sample dimension of a block (such as a CU or other video block) in terms of vertical and horizontal dimensions. ”, for example, 16×16 samples or 16 by 16 samples may be used. Generally, a 16x16 CU has 16 samples vertically (y=16) and 16 samples horizontally (x=16). Similarly, an N×N CU generally has N samples in the vertical direction and N samples in the horizontal direction, where N represents a non-negative integer value. Samples within a CU may be arranged in rows and columns. Furthermore, a CU does not necessarily need to have the same number of samples horizontally as vertically. For example, a CU may comprise N×M samples, where M is not necessarily equal to N.

ビデオエンコーダ200は、予測および/または残差情報、ならびに他の情報を表すCUのためのビデオデータを符号化する。予測情報は、CUのための予測ブロックを形成するためにCUがどのように予測されることになるかを示す。残差情報は、一般に、符号化に先立つCUのサンプルと予測ブロックのサンプルとの間のサンプルごとの差分を表す。 Video encoder 200 encodes video data for CUs representing prediction and/or residual information, as well as other information. Prediction information indicates how a CU is to be predicted to form a prediction block for the CU. Residual information generally represents the sample-by-sample difference between the samples of the CU and the samples of the predictive block prior to encoding.

CUを予測するために、ビデオエンコーダ200は、一般に、インター予測またはイントラ予測を通じてCUのための予測ブロックを形成し得る。インター予測は、一般に、以前にコーディングされたピクチャのデータからCUを予測することを指すが、イントラ予測は、一般に、同じピクチャの以前にコーディングされたデータからCUを予測することを指す。インター予測を実行するために、ビデオエンコーダ200は、1つまたは複数の動きベクトルを使用して予測ブロックを生成し得る。ビデオエンコーダ200は、一般に、たとえば、CUと参照ブロックとの間の差分に関してCUと厳密に一致する参照ブロックを識別するために、動き探索を実行し得る。ビデオエンコーダ200は、参照ブロックが現在のCUと厳密に一致するかどうかを決定するために、絶対差分和(SAD)、2乗差分和(SSD)、平均絶対差(MAD)、平均2乗差(MSD)、または他のそのような差分計算を使用して差分メトリックを計算し得る。いくつかの例では、ビデオエンコーダ200は、単方向予測または双方向予測を使用して現在のCUを予測し得る。 To predict a CU, video encoder 200 may generally form a prediction block for the CU through inter-prediction or intra-prediction. Inter prediction generally refers to predicting a CU from data of a previously coded picture, whereas intra prediction generally refers to predicting a CU from previously coded data of the same picture. To perform inter prediction, video encoder 200 may use one or more motion vectors to generate a predictive block. Video encoder 200 may generally perform motion searching, for example, to identify a reference block that closely matches a CU with respect to the difference between the CU and the reference block. Video encoder 200 uses sum of absolute differences (SAD), sum of squared differences (SSD), mean absolute difference (MAD), mean squared difference, etc. to determine whether a reference block exactly matches the current CU. (MSD), or other such difference calculations may be used to calculate the difference metric. In some examples, video encoder 200 may predict the current CU using unidirectional prediction or bidirectional prediction.

VVCのいくつかの例は、インター予測モードと見なされ得るアフィン動き補償モードも提供する。アフィン動き補償モードでは、ビデオエンコーダ200は、ズームインもしくはズームアウト、回転、遠近運動、または他の不規則な運動タイプなどの、非並進運動を表す2つ以上の動きベクトルを決定し得る。 Some examples of VVC also provide an affine motion compensation mode, which can be considered an inter-prediction mode. In affine motion compensation mode, video encoder 200 may determine two or more motion vectors representing non-translational motion, such as zooming in or out, rotation, perspective motion, or other irregular motion types.

イントラ予測を実行するために、ビデオエンコーダ200は、イントラ予測モードを選択して予測ブロックを生成し得る。VVCのいくつかの例は、様々な方向モードを含む67個のイントラ予測モード、ならびに平面モードおよびDCモードを提供する。一般に、ビデオエンコーダ200は、そこから現在ブロックのサンプルを予測するための現在ブロック(たとえば、CUのブロック)に対する隣接サンプルを記述するイントラ予測モードを選択する。そのようなサンプルは、一般に、ビデオエンコーダ200がラスタ走査順序で(左から右に、上から下に)CTUおよびCUをコーディングすると仮定すると、現在ブロックと同じピクチャ中の現在ブロックの上方、上方および左側、または左側にあり得る。 To perform intra prediction, video encoder 200 may select an intra prediction mode to generate predictive blocks. Some examples of VVC provide 67 intra-prediction modes, including various directional modes, as well as planar and DC modes. Generally, video encoder 200 selects an intra prediction mode that describes adjacent samples to a current block (eg, a block of a CU) from which to predict samples of the current block. Such samples generally include the top, top, and bottom of the current block in the same picture as the current block, assuming that video encoder 200 codes CTUs and CUs in raster scan order (left to right, top to bottom). It can be on the left side, or on the left side.

ビデオエンコーダ200は、現在ブロックのための予測モードを表すデータを符号化する。たとえば、インター予測モードの場合、ビデオエンコーダ200は、様々な利用可能なインター予測モードのうちのどれが使用されるか、ならびに対応するモードについての動き情報を表すデータを符号化し得る。単方向または双方向インター予測の場合、たとえば、ビデオエンコーダ200は、高度動きベクトル予測(AMVP)またはマージモードを使用して動きベクトルを符号化し得る。ビデオエンコーダ200は、アフィン動き補償モードのための動きベクトルを符号化するために類似のモードを使用し得る。 Video encoder 200 encodes data representing the prediction mode for the current block. For example, for inter-prediction modes, video encoder 200 may encode data representing which of the various available inter-prediction modes will be used, as well as motion information for the corresponding modes. For unidirectional or bidirectional inter-prediction, for example, video encoder 200 may encode motion vectors using advanced motion vector prediction (AMVP) or merge mode. Video encoder 200 may use a similar mode to encode motion vectors for affine motion compensation mode.

ブロックのイントラ予測またはインター予測などの予測に続いて、ビデオエンコーダ200はブロックのための残差データを計算し得る。残差ブロックなどの残差データは、ブロックと、対応する予測モードを使用して形成されたそのブロックのための予測ブロックとの間のサンプルごとの差分を表す。ビデオエンコーダ200は、サンプル領域ではなく変換領域において変換データを生成するために、1つまたは複数の変換を残差ブロックに適用し得る。たとえば、ビデオエンコーダ200は、離散コサイン変換(DCT)、整数変換、ウェーブレット変換、または概念的に類似の変換を残差ビデオデータに適用し得る。加えて、ビデオエンコーダ200は、第1の変換に続いて、モード依存型分離不可能二次変換(MDNSST:mode-dependent non-separable secondary transform)、信号依存変換、カルーネンレーベ変換(KLT:Karhunen-Loeve transform)などの二次変換を適用し得る。ビデオエンコーダ200は、1つまたは複数の変換の適用に続いて、変換係数を生成する。 Following prediction, such as intra-prediction or inter-prediction, of a block, video encoder 200 may calculate residual data for the block. Residual data, such as a residual block, represents the sample-by-sample difference between a block and a predicted block for that block formed using a corresponding prediction mode. Video encoder 200 may apply one or more transforms to the residual block to generate transform data in the transform domain rather than the sample domain. For example, video encoder 200 may apply a discrete cosine transform (DCT), an integer transform, a wavelet transform, or a conceptually similar transform to the residual video data. In addition, video encoder 200 may perform a mode-dependent non-separable secondary transform (MDNSST), a signal-dependent transform, and a Karhunen-Loeve transform (KLT) following the first transform. A quadratic transformation such as -Loeve transform) may be applied. Video encoder 200 generates transform coefficients following application of one or more transforms.

上述のように、変換係数を生成するための任意の変換に続いて、ビデオエンコーダ200は、変換係数の量子化を実行し得る。量子化は一般に、変換係数を表すために使用されるデータの量をできるだけ低減するために変換係数が量子化され、さらなる圧縮を実現するプロセスを指す。量子化プロセスを実行することによって、ビデオエンコーダ200は、変換係数の一部または全部に関連付けられたビット深度を低減し得る。たとえば、ビデオエンコーダ200は、量子化の間にnビット値をmビット値に切り捨ててもよく、ここで、nはmよりも大きい。いくつかの例では、量子化を実行するために、ビデオエンコーダ200は、量子化されるべき値のビット単位の右シフトを実行してもよい。 As described above, following any transformation to generate transform coefficients, video encoder 200 may perform quantization of the transform coefficients. Quantization generally refers to a process in which transform coefficients are quantized to reduce as much as possible the amount of data used to represent the transform coefficients, achieving further compression. By performing a quantization process, video encoder 200 may reduce the bit depth associated with some or all of the transform coefficients. For example, video encoder 200 may truncate an n-bit value to an m-bit value during quantization, where n is greater than m. In some examples, to perform quantization, video encoder 200 may perform a bitwise right shift of the value to be quantized.

量子化に続いて、ビデオエンコーダ200は、変換係数を走査し、量子化された変換係数を含む2次元行列から1次元ベクトルを生成し得る。走査は、より高いエネルギー(したがって、より低い周波数)の変換係数をベクトルの前方に置き、より低いエネルギー(したがって、より高い周波数)の変換係数をベクトルの後方に置くように設計され得る。いくつかの例では、ビデオエンコーダ200は、シリアル化ベクトルを生成し、次いで、ベクトルの量子化された変換係数をエントロピー符号化するために、量子化された変換係数を走査するための事前定義された走査順序を利用し得る。他の例では、ビデオエンコーダ200は適応走査を実行し得る。量子化された変換係数を走査して1次元ベクトルを形成した後、ビデオエンコーダ200は、たとえば、コンテキスト適応型バイナリ算術コーディング(CABAC)に従って、1次元ベクトルをエントロピー符号化し得る。ビデオエンコーダ200はまた、ビデオデータを復号する際にビデオデコーダ300によって使用するための符号化されたビデオデータに関連付けられたメタデータを記述するシンタックス要素のための値をエントロピー符号化し得る。 Following quantization, video encoder 200 may scan the transform coefficients and generate a one-dimensional vector from the two-dimensional matrix containing the quantized transform coefficients. The scan may be designed to place higher energy (and therefore lower frequency) transform coefficients at the front of the vector and lower energy (and therefore higher frequency) transform coefficients at the back of the vector. In some examples, video encoder 200 uses a predefined method for scanning the quantized transform coefficients to generate a serialized vector and then entropy encode the quantized transform coefficients of the vector. A different scan order can be used. In other examples, video encoder 200 may perform adaptive scanning. After scanning the quantized transform coefficients to form a one-dimensional vector, video encoder 200 may entropy encode the one-dimensional vector, eg, according to context-adaptive binary arithmetic coding (CABAC). Video encoder 200 may also entropy encode values for syntax elements that describe metadata associated with encoded video data for use by video decoder 300 in decoding the video data.

CABACを実行するために、ビデオエンコーダ200は、送信されるべきシンボルにコンテキストモデル内のコンテキストを割り当て得る。コンテキストは、たとえば、シンボルの隣接値が0値化されているか否かに関係し得る。確率決定は、シンボルに割り当てられたコンテキストに基づき得る。 To perform CABAC, video encoder 200 may assign a context in a context model to the symbols to be transmitted. The context may relate, for example, to whether neighboring values of the symbol are zeroed. The probability determination may be based on the context assigned to the symbol.

ビデオエンコーダ200は、たとえば、ピクチャヘッダ、ブロックヘッダ、スライスヘッダ、または、シーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、もしくはビデオパラメータセット(VPS)などの他のシンタックスデータにおいて、ビデオデコーダ300へのブロックベースのシンタックスデータ、ピクチャベースのシンタックスデータ、およびシーケンスベースのシンタックスデータなどのシンタックスデータをさらに生成し得る。ビデオデコーダ300は、そのようなシンタックスデータを同様に復号して、対応するビデオデータをどのように復号するかを決定し得る。 The video encoder 200 may, for example, encode a picture header, a block header, a slice header, or other syntax data such as a sequence parameter set (SPS), a picture parameter set (PPS), or a video parameter set (VPS) into a video decoder. Syntax data such as block-based syntax data, picture-based syntax data, and sequence-based syntax data may further be generated. Video decoder 300 may similarly decode such syntax data to determine how to decode the corresponding video data.

このように、ビデオエンコーダ200は、符号化されたビデオデータ、たとえば、ブロック(たとえば、CU)へのピクチャの区分ならびにブロックについての予測および/または残差情報を記述するシンタックス要素を含むビットストリームを生成し得る。最終的に、ビデオデコーダ300は、ビットストリームを受信し、符号化されたビデオデータを復号し得る。 In this way, video encoder 200 generates encoded video data, e.g., a bitstream that includes syntax elements that describe the partitioning of pictures into blocks (e.g., CUs) and prediction and/or residual information about the blocks. can be generated. Ultimately, video decoder 300 may receive the bitstream and decode the encoded video data.

一般に、ビデオデコーダ300は、ビデオエンコーダ200によって実行されるプロセスとは逆のプロセスを実行して、ビットストリームの符号化されたビデオデータを復号する。たとえば、ビデオデコーダ300は、ビデオエンコーダ200のCABAC符号化プロセスとは逆であるが実質的に同様の方法で、CABACを使用してビットストリームのシンタックス要素のための値を復号し得る。シンタックス要素は、CTUへのピクチャの区分のための区分情報、およびQTBT構造などの対応する区分構造に従った各CTUの区分を定義して、CTUのCUを定義し得る。シンタックス要素は、ビデオデータのブロック(たとえば、CU)についての予測および残差情報をさらに定義し得る。 Generally, video decoder 300 performs a process that is the reverse of that performed by video encoder 200 to decode encoded video data of a bitstream. For example, video decoder 300 may decode values for syntax elements of a bitstream using CABAC in a manner that is opposite to, but substantially similar to, video encoder 200's CABAC encoding process. The syntax element may define partitioning information for partitioning pictures into CTUs and partitioning each CTU according to a corresponding partitioning structure, such as a QTBT structure, to define CUs of CTUs. The syntax elements may further define prediction and residual information for a block of video data (eg, a CU).

残差情報は、たとえば、量子化された変換係数によって表され得る。ビデオデコーダ300は、ブロックのための残差ブロックを再生するために、ブロックの量子化された変換係数を逆量子化し、逆変換し得る。ビデオデコーダ300は、ブロックのための予測ブロックを形成するために、シグナリングされた予測モード(イントラ予測またはインター予測)および関連する予測情報(たとえば、インター予測についての動き情報)を使用する。次いで、ビデオデコーダ300は、元のブロックを再生するために、予測ブロックおよび残差ブロックを(サンプルごとに)合成し得る。ビデオデコーダ300は、ブロックの境界に沿って視覚的アーティファクトを低減するためのデブロッキングプロセスを実行するなどの、追加の処理を実行し得る。 The residual information may be represented by quantized transform coefficients, for example. Video decoder 300 may dequantize and inverse transform the quantized transform coefficients of the block to recover a residual block for the block. Video decoder 300 uses the signaled prediction mode (intra or inter prediction) and associated prediction information (eg, motion information for inter prediction) to form a prediction block for the block. Video decoder 300 may then combine the predictive block and the residual block (sample by sample) to reproduce the original block. Video decoder 300 may perform additional processing, such as performing a deblocking process to reduce visual artifacts along block boundaries.

本開示は、一般に、シンタックス要素などの特定の情報を「シグナリング」することに言及することがある。「シグナリング」という用語は、一般に、シンタックス要素および/または符号化されたビデオデータを復号するために使用される他のデータのための値の通信を指すことがある。すなわち、ビデオエンコーダ200は、ビットストリーム中でシンタックス要素のための値をシグナリングし得る。一般に、シグナリングは、ビットストリーム中で値を生成することを指す。上述のように、ソースデバイス102は、実質的にリアルタイムで、または、宛先デバイス116によって後で取り出すためにシンタックス要素を記憶デバイス112に記憶するときに行われ得るなど、リアルタイムではなく、ビットストリームを宛先デバイス116にトランスポートし得る。 This disclosure may generally refer to "signaling" certain information, such as syntax elements. The term "signaling" may generally refer to the communication of syntax elements and/or values for other data used to decode encoded video data. That is, video encoder 200 may signal values for syntax elements in the bitstream. Generally, signaling refers to producing a value in a bitstream. As mentioned above, source device 102 may generate a bitstream in substantially real-time or in a non-real-time manner, such as when storing syntax elements on storage device 112 for later retrieval by destination device 116. may be transported to destination device 116.

本開示の技法によれば、以下でより詳細に説明するように、ビデオエンコーダ200およびビデオデコーダ300は、N個のエントリを含む総最確モードリストを構築することであって、総最確モードリストのN個のエントリがイントラ予測モードであり、平面モードが総最確モードリストの中の1番目のエントリである、構築することと、総最確モードリストの中の最初のNp個のエントリから1次最確モードリストを構築することであって、NpがN未満である、構築することと、総最確モードリストの中の残り(N-Np個)のエントリから2次最確モードリストを構築することと、1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定することと、現在のイントラ予測モードを使用してビデオデータの現在ブロックを復号することとを行うように構成され得る。 According to the techniques of this disclosure, as described in more detail below, video encoder 200 and video decoder 300 construct a total most probable mode list that includes N entries, the total most probable mode constructing and the first Np entries in the total most probable mode list, the N entries of the list are intra-prediction modes, and the planar mode is the first entry in the total most probable mode list. constructing a first-order most probable mode list from the remaining (N-Np) entries in the total most probable mode list, with Np less than N, and a second-order most probable mode from the remaining (N-Np) entries in the total most probable mode list determining a current intra-prediction mode for a current block of video data using a first-order most probable mode list or a second-order most likely mode list; and using the current intra-prediction mode. and decoding a current block of video data.

例示的なイントラコーディングモードは、DCモード、平面モード、および複数の方向性モード(たとえば、非平面モード)を含む。VVC、J. Chen、Y. Ye、およびS.-H. Kim、「Algorithm description for Versatile Video Coding and Test Model 9 (VTM 9)」、JVET-R2002、2020年4月では、ブロックのイントラ予測のために65個の方向性モードが使用される。イントラモード値をコーディングするために、ビデオエンコーダ200およびビデオデコーダ300は、最確モード(MPM)リストを導出するように構成され得る。特定のCUをコーディングするために使用されるイントラモードがMPMリストの中のモードである場合、ビデオエンコーダ200は、MPMリストの中の決定されたイントラモードのインデックスのみをシグナリングし得る。そうでない場合、ビデオエンコーダ200は、バイパスコーディング(たとえば、固定確率モデルを用いたエントロピーコーディング)を使用してモード値をシグナリングし得る。 Exemplary intra-coding modes include DC mode, planar mode, and multiple directional modes (eg, non-planar mode). VVC, J. Chen, Y. Ye, and S.-H. Kim, “Algorithm description for Versatile Video Coding and Test Model 9 (VTM 9),” JVET-R2002, April 2020, describes the intra-prediction of blocks. 65 directional modes are used for this purpose. To code intra mode values, video encoder 200 and video decoder 300 may be configured to derive a most probable mode (MPM) list. If the intra mode used to code a particular CU is a mode in the MPM list, video encoder 200 may only signal the index of the determined intra mode in the MPM list. Otherwise, video encoder 200 may signal the mode value using bypass coding (eg, entropy coding with a fixed probability model).

VVCでは、MPMリストには6個のエントリがある。MPMリストの中の第1のエントリは平面モードである。MPMリストの中の残りのエントリは、CU400の左(L)隣接ブロックおよび上(A)隣接ブロック(図2参照)のイントラモード、隣接ブロックの方向性イントラモードから導出されたイントラモード、およびデフォルトイントラモードから構成される。本開示での説明の残りでは、このMPMリストは1次MPMリストと呼ばれる。 In VVC, the MPM list has 6 entries. The first entry in the MPM list is planar mode. The remaining entries in the MPM list are the intra modes of the left (L) and top (A) adjacent blocks of the CU400 (see Figure 2), the intra modes derived from the directional intra modes of the adjacent blocks, and the default Consists of intra mode. In the remainder of the discussion in this disclosure, this MPM list will be referred to as the primary MPM list.

A. Ramasubramonianら、「CE3-3.1.1: Two MPM modes and shape dependency (Test 3.1.1)」、ITU-T SG 16 WP 3およびISO/IEC JTC 1/SC 29/WG 11のJoint Video Exploration Team(JVET)、第11回会議: リュブリャナ、スロベニア、2018年7月10~18日(以下では「JVET-K0081」)では、2つのMPMリストが提案された。1つのMPMリストは6個のエントリを有する1次MPM(PMPM)リストであり、もう1つのMPMリストは16個のエントリを有する2次MPM(SMPM)リストである。PMPMリストの中のエントリは、図3に示すように、CU402の左(L)、上(A)、左下(BL)、右上(AR)、および左上(AL)隣接ブロックのイントラモードを使用して導出される。SMPMリストは、PMPMリストに含まれる方向性モードの近くの(たとえば、角度またはインデックス値が近い)モードから生成される。 A. Ramasubramonian et al., “CE3-3.1.1: Two MPM modes and shape dependency (Test 3.1.1),” Joint Video Exploration Team of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11. (JVET), 11th Conference: Ljubljana, Slovenia, 10-18 July 2018 (hereinafter referred to as "JVET-K0081"), two MPM lists were proposed. One MPM list is a primary MPM (PMPM) list with 6 entries, and the other MPM list is a secondary MPM (SMPM) list with 16 entries. Entries in the PMPM list use the intra mode of the left (L), top (A), bottom left (BL), top right (AR), and top left (AL) adjacent blocks of the CU402, as shown in Figure 3. It is derived as follows. The SMPM list is generated from modes that are close (eg, close in angle or index value) to the directional modes included in the PMPM list.

たとえば、PMPMリストの第1のエントリがイントラモード12であり、最大オフセットが4である場合、イントラモード11、10、9、8、13、14、15および16は各々、そのようなイントラモードがまだ2つのMPMリストに含まれていないという条件で、SMPMリストに追加される。すなわち、イントラモードインデックス12からプラスまたはマイナス4インデックスのモードのすべては、そのようなモードがすでにリストの中にあるモードの複製でない限り、リストに追加される。 For example, if the first entry in the PMPM list is intramode 12 and the maximum offset is 4, then intramodes 11, 10, 9, 8, 13, 14, 15, and 16 are each such intramode It will be added to the SMPM list provided it is not already included in two MPM lists. That is, all modes from intramode index 12 plus or minus 4 indices are added to the list unless such modes are duplicates of modes already in the list.

JVET-K0081における6個の1次MPM用に使用される最大オフセットは{4, 3, 3, 2, 2, 1}である。SMPMリストの16個のエントリがこのプロセスによってポピュレートされない場合、残りのエントリはイントラモードのデフォルトリストからポピュレートされる。ビデオエンコーダは、ブロックのイントラ予測モードがPMPMリストからのものであるかSMPMリストからのものであるかを示すシンタックス要素をシグナリングし得る。 The maximum offsets used for the 6 primary MPMs in JVET-K0081 are {4, 3, 3, 2, 2, 1}. If the 16 entries in the SMPM list are not populated by this process, the remaining entries are populated from the intra mode default list. A video encoder may signal a syntax element that indicates whether a block's intra prediction mode is from a PMPM list or an SMPM list.

本開示は、PMPMリストおよびSMPMリストから構成されるMPMリストの構築を改善するための異なる技法について説明する。詳細には、本開示は、総最確モードリストを構築し、次いで、総最確モードリストから1次最確モードリストおよび2次最確モードリストを構築するための技法について説明する。1次最確モードリストおよび2次最確モードリストは、隣接ブロックからのイントラ予測モード、ならびに隣接ブロックのイントラ予測モードからオフセットされたイントラ予測モードを含み得る。 This disclosure describes different techniques for improving the construction of MPM lists composed of PMPM lists and SMPM lists. In particular, this disclosure describes techniques for constructing a total most probable mode list and then constructing a first order most probable mode list and a second order most probable mode list from the total most probable mode list. The first most probable mode list and the second most probable mode list may include intra prediction modes from neighboring blocks as well as intra prediction modes offset from the intra prediction modes of neighboring blocks.

総MPMリスト構築 Total MPM list construction

最初に、総MPM(GMPM)リストがN個のエントリで定義され得、GMPMリストのi番目のエントリはGMPM[ i ]として示される。このGMPMリストの第1のエントリは平面モードである。すなわち、GMPMリストへのインデックス0(たとえば、GMPM[0])は平面イントラモードを示す。たとえば、図3に示すように、現在コーディングされているブロックの左(L)、上(A)、左下(BL)、右上(AR)、および左上(AL)隣接ブロックのイントラモードは、それぞれ、MPM(L)、MPM(A)、MPM(BL)、MPM(AR)、およびMPM(AL)として示され得る。 Initially, a total MPM (GMPM) list may be defined with N entries, where the i-th entry of the GMPM list is denoted as GMPM[ i ]. The first entry in this GMPM list is planar mode. That is, index 0 (eg, GMPM[0]) into the GMPM list indicates planar intra mode. For example, as shown in Figure 3, the intra modes of the left (L), top (A), bottom left (BL), top right (AR), and top left (AL) adjacent blocks of the currently coded block are, respectively. May be designated as MPM(L), MPM(A), MPM(BL), MPM(AR), and MPM(AL).

ビデオエンコーダ200およびビデオデコーダ300は、MPM( j )が利用可能であり、まだGMPMリストの中に含まれていない場合、イントラモードMPM(L)、MPM(A)、MPM(BL)、MPM(AR)、およびMPM(AL)をGMPMリストの中に追加することによって、GMPMリストを構築するように構成される。隣接ブロックjが関連するイントラ予測モードを有する場合、イントラモードMPM( j )が利用可能である。たとえば、隣接ブロックは、隣接ブロックがイントラ予測を使用してコーディングされる場合、関連するイントラ予測モードを有し得る。他の例では、隣接ブロックは、イントラ予測を使用してコーディングされない場合でも、関連するイントラ予測モードを有し得る。 Video encoder 200 and video decoder 300 perform intra mode MPM(L), MPM(A), MPM(BL), MPM( AR), and MPM(AL) into the GMPM list. Intra mode MPM(j) is available if neighboring block j has an associated intra prediction mode. For example, a neighboring block may have an associated intra prediction mode if the neighboring block is coded using intra prediction. In other examples, neighboring blocks may have associated intra prediction modes even if they are not coded using intra prediction.

ビデオエンコーダ200およびビデオデコーダ300は、MPM(L)、MPM(A)、MPM(BL)、MPM(AR)、およびMPM(AL)イントラ予測モードの中の最初のNa個の利用可能な方向性イントラモードをオフセットすることによって、GMPMリストの中の残りのエントリを導出し得、Naは、左(L)、上(A)、左下(BL)、右上(AR)、および左上(AL)隣接ブロックの数よりも小さい数である。たとえば、Naは5未満であり得る。 Video encoder 200 and video decoder 300 detect the first Na available directionality among MPM(L), MPM(A), MPM(BL), MPM(AR), and MPM(AL) intra prediction modes. The remaining entries in the GMPM list can be derived by offsetting the intra mode, where Na is the left (L), top (A), bottom left (BL), top right (AR), and top left (AL) adjacent A number smaller than the number of blocks. For example, Na can be less than 5.

GMPMリストの中に含まれるMPM(L)、MPM(A)、MPM(BL)、MPM(AR)、およびMPM(AL)のうちのイントラモードはGMPM[ p ]=MPM( j )として示され、1≦p≦Nbであり、Nbは5よりも小さいかまたはそれに等しく、jはL、A、BL、AR、およびALのうちの1つである。pが事前定義された値qよりも小さい場合、最大オフセットはM1として設定され、そうでない場合、最大オフセットはM2として設定される。GMPMリストのN個のエントリが提案されたプロセスによってポピュレートされない場合、エントリの残りはデフォルトリストからポピュレートされる。GMPMリストの中の最初のNp個のエントリはPMPMリストとして設定され、GMPMリストの中のエントリの残り(N-Np)個はSMPMリストとして設定される。 The intra mode of MPM(L), MPM(A), MPM(BL), MPM(AR), and MPM(AL) included in the GMPM list is indicated as GMPM[ p ]=MPM( j ). , 1≦p≦Nb, Nb is less than or equal to 5, and j is one of L, A, BL, AR, and AL. If p is less than the predefined value q, the maximum offset is set as M1, otherwise the maximum offset is set as M2. If N entries in the GMPM list are not populated by the proposed process, the remainder of the entries are populated from the default list. The first Np entries in the GMPM list are configured as the PMPM list, and the remaining (N-Np) entries in the GMPM list are configured as the SMPM list.

一例として、PMPMリストの第1のエントリがイントラモード12であり、最大オフセットが4である場合、イントラモード11、10、9、8、13、14、15および16は各々、そのようなイントラモードがまだ2つのMPMリストに含まれていないという条件で、SMPMリストに追加される。すなわち、イントラモードインデックス12からプラスまたはマイナス4インデックスのモードのすべては、そのようなモードがすでにリストの中にあるモードの複製でない限り、リストに追加される。別の例では、PMPMリストの第1のエントリがイントラモード12であり、最大オフセットが3である場合、イントラモード11、10、9、13、14、および15は各々、そのようなイントラモードがまだ2つのMPMリストに含まれていないという条件で、SMPMリストに追加される。すなわち、イントラモードインデックス12からプラスまたはマイナス3インデックスのモードのすべては、そのようなモードがすでにリストの中にあるモードの複製ではないという条件で、リストに追加される。 As an example, if the first entry in the PMPM list is intra mode 12 and the maximum offset is 4, then intra modes 11, 10, 9, 8, 13, 14, 15 and 16 are each such intra mode is added to the SMPM list provided that it is not already included in two MPM lists. That is, all modes from intramode index 12 plus or minus 4 indices are added to the list unless such modes are duplicates of modes already in the list. In another example, if the first entry in the PMPM list is intra mode 12 and the maximum offset is 3, then intra modes 11, 10, 9, 13, 14, and 15 are each such intra mode It will be added to the SMPM list provided it is not already included in two MPM lists. That is, all modes with intramode index 12 plus or minus 3 indices are added to the list, provided that such modes are not duplicates of modes already in the list.

一例では、N=22、Np=6、Na=2、q=3、M1=4、およびM2=3である。この例では、GMPMリストのサイズは22個のエントリであり、最初の6個のエントリはPMPMリストであり、最後の16個のエントリはSMPMリストである。MPM(L)、MPM(A)、MPM(BL)、MPM(AR)、およびMPM(AL)の中の最初の2個の利用可能な方向性イントラモードは、その2個の利用可能な方向性イントラモードの近くの方向性イントラモードを導出するためにオフセットされる。このコンテキストでは、近くの(nearby)は、利用可能な方向性イントラモードのインデックスからプラスM1個もしくはM2個のインデックスまたはマイナスM1個もしくはM2個のインデックスを意味する。GMPM[ 1 ]およびGMPM[ 2 ]が非DCモードである場合、最大オフセットはGMPM[ 1 ]およびGMPM[ 2 ]の場合は4である。GMPM[ 1 ]がDCモードであり、GMPM[ 2 ]およびGMPM[ 3 ]が非DCモードである場合、最大オフセットはGMPM[ 2 ]の場合は4であり、GMPM[ 3 ]の場合は3である。GMPM[ 2 ]がDCモードであり、GMPM[ 1 ]およびGMPM[ 3 ]が非DCモードである場合、最大オフセットはGMPM[ 1 ]の場合は4であり、GMPM[ 3 ]の場合は3である。たとえば、GMPM[ 1 ]=20であり、GMPM[ 3 ]=40である場合、GMPM[ 1 ]からオフセットされたモード16、17、18、19、21、22、23、および24、ならびにGMPM[ 3 ]からオフセットされたモード37、38、39、41、42、および43がGMPMリストの中に追加される。 In one example, N=22, Np=6, Na=2, q=3, M1=4, and M2=3. In this example, the size of the GMPM list is 22 entries, with the first 6 entries being the PMPM list and the last 16 entries being the SMPM list. The first two available directional intra modes in MPM(L), MPM(A), MPM(BL), MPM(AR), and MPM(AL) are directional intramodes are offset to derive the directional intramodes near the directional intramodes. In this context, near means plus M1 or M2 indices or minus M1 or M2 indices from the available directional intra mode indices. When GMPM[ 1 ] and GMPM[ 2 ] are in non-DC mode, the maximum offset is 4 for GMPM[ 1 ] and GMPM[ 2 ]. If GMPM[ 1 ] is in DC mode and GMPM[ 2 ] and GMPM[ 3 ] are in non-DC mode, the maximum offset is 4 for GMPM[ 2 ] and 3 for GMPM[ 3 ]. be. If GMPM[ 2 ] is in DC mode and GMPM[ 1 ] and GMPM[ 3 ] are in non-DC mode, the maximum offset is 4 for GMPM[ 1 ] and 3 for GMPM[ 3 ]. be. For example, if GMPM[ 1 ]=20 and GMPM[ 3 ]=40, modes 16, 17, 18, 19, 21, 22, 23, and 24 offset from GMPM[ 1 ], and GMPM[ Modes 37, 38, 39, 41, 42, and 43 offset from [3] are added in the GMPM list.

MPMインデックスコーディング MPM index coding

VVCのための一例では、ビデオデコーダ300は、CUのイントラモードがPMPMリストの第1のエントリであるかどうかを決定するために、最初に平面フラグを復号およびパースするように構成され得る。平面フラグが平面モードを示さない場合、ビデオデコーダ300は、PMPMリストのどのエントリが選択されるかを決定するために、インデックス値(たとえば、インデックス値を示すシンタックス要素)を復号およびパースするように構成され得る。パースされるインデックス値0、1、2、3、および4は、それぞれ、PMPMリストの1番目のエントリ、2番目のエントリ、3番目のエントリ、4番目のエントリ、5番目のエントリに対応し、インデックス値0、1、2、3、4のパースされるビンは、それぞれ、0、10、110、1110、1111であることに留意されたい。 In one example for VVC, video decoder 300 may be configured to first decode and parse the plane flag to determine whether the CU's intra mode is the first entry in the PMPM list. If the plane flag does not indicate a plane mode, video decoder 300 is configured to decode and parse an index value (e.g., a syntax element indicating an index value) to determine which entry in the PMPM list is selected. may be configured. The parsed index values 0, 1, 2, 3, and 4 correspond to the 1st entry, 2nd entry, 3rd entry, 4th entry, 5th entry of the PMPM list, respectively, Note that the parsed bins for index values 0, 1, 2, 3, and 4 are 0, 10, 110, 1110, 1111, respectively.

イントラサブパーティション(ISP:Intra Sub-Partition)モードおよび複数参照ライン(MRL:Multiple reference line)モードと称する新しいコーディングツールは、VVCの中に組み込まれている。ISPモードおよび通常イントラモードは、同じPMPMリストを共有する。MRLモードは、第1のエントリ、すなわち、平面モードを除いて、PMPMリストの中のイントラモードに適用される。通常イントラモード、ISPモード、およびMRLモードはすべて、同じ非平面PMPMエントリ、すなわち、PMPMリストの1番目のエントリ、2番目のエントリ、3番目のエントリ、4番目のエントリ、5番目のエントリを共有するので、通常イントラモード、ISPモード、およびMRLモードのうちの選択されたモードを条件とするコンテキストコーディングは、PMPMインデックスをシグナリングするときのコーディング効率を改善することになる。したがって、本開示の技法によれば、ビデオエンコーダ200およびビデオデコーダ300は、次のように非平面PMPMインデックスの第1のビンをコーディングするために、3つのコンテキストモデルを使用するように構成され得る。
(ISPモード)の場合:コンテキストインデックス0を用いて非平面PMPMインデックスの第1のビンをコーディングする。
そうでなく、(MRLモード)の場合:コンテキストインデックス1を用いて非平面PMPMインデックスの第1のビンをコーディングする。
そうでない場合(通常イントラモード):コンテキストインデックス2を用いて非平面PMPMインデックスの第1のビンをコーディングする。
New coding tools called Intra Sub-Partition (ISP) and Multiple Reference Line (MRL) modes have been incorporated into VVC. ISP mode and normal intra mode share the same PMPM list. The MRL modes apply to the first entry, i.e., the intra modes in the PMPM list, except for the planar mode. Normal intra mode, ISP mode, and MRL mode all share the same non-planar PMPM entries, i.e. 1st entry, 2nd entry, 3rd entry, 4th entry, 5th entry in the PMPM list Therefore, context coding conditional on a selected mode among the normal intra mode, ISP mode, and MRL mode will improve the coding efficiency when signaling the PMPM index. Therefore, according to the techniques of this disclosure, video encoder 200 and video decoder 300 may be configured to use three context models to code the first bin of the non-planar PMPM index as follows: .
(ISP mode): Code the first bin of the non-planar PMPM index using context index 0.
Otherwise (MRL mode): Use context index 1 to code the first bin of the non-planar PMPM index.
Otherwise (normal intra mode): Code the first bin of the non-planar PMPM index using context index 2.

本開示の技法を使用するとき、if-elseの順序は他の組合せに変更することができる。一例は以下である。
(MRLモード)の場合:コンテキストインデックス0を用いて非平面PMPMインデックスの第1のビンをコーディングする。
そうでなく、(ISPモード)の場合:コンテキストインデックス1を用いて非平面PMPMインデックスの第1のビンをコーディングする。
そうでない場合(通常イントラモード):コンテキストインデックス2を用いて非平面PMPMインデックスの第1のビンをコーディングする。
When using the techniques of this disclosure, the if-else order can be changed to other combinations. An example is below.
(MRL mode): Code the first bin of the non-planar PMPM index using context index 0.
Otherwise (ISP mode): Use context index 1 to code the first bin of the non-planar PMPM index.
Otherwise (normal intra mode): Code the first bin of the non-planar PMPM index using context index 2.

(実施例)
上記で説明したように、2つのMPMリストが使用され得る。すなわち、1つは6個のエントリを有する1次MPM(PMPM)リストであり、もう1つは16個のエントリを有する2次MPM(SMPM)リストである。本開示の技法によれば、ビデオエンコーダ200およびビデオデコーダ300は、22個のエントリを有する総MPMリストを構築し得、この総MPMリストの中の最初の6個のエントリはPMPMリストの中に含まれ、22個のエントリの残りはSMPMリストになるように設定される。総MPMリストの中の第1の(first)エントリ(たとえば、1番目の(ordinal first)エントリ)は平面モードである。残りのエントリは、図3に示すように、左(L)、上(A)、左下(BL)、右上(AR)、および左上(AL)隣接ブロックのイントラモードと、隣接ブロックの最初の2個の利用可能な方向性モードからオフセットされた方向性モードと、デフォルトモードとから構成される。CUブロックが矩形であり、垂直方向に配向される場合、すなわち、高さが幅よりも大きいとき、利用可能なイントラ予測モードについて確認される隣接ブロックの順序はA、L、BL、AR、ALである。そうでない場合、順序はL、A、BL、AR、ALである。
(Example)
As explained above, two MPM lists may be used. That is, one is a primary MPM (PMPM) list with 6 entries, and the other is a secondary MPM (SMPM) list with 16 entries. According to the techniques of this disclosure, video encoder 200 and video decoder 300 may construct a total MPM list with 22 entries, and the first six entries in this total MPM list are in the PMPM list. The rest of the 22 entries are set to be the SMPM list. The first entry (eg, ordinal first entry) in the total MPM list is the planar mode. The remaining entries are the intra modes of the left (L), top (A), bottom left (BL), top right (AR), and top left (AL) adjacent blocks and the first two of the adjacent blocks, as shown in Figure 3. consists of a directional mode offset from the available directional modes, and a default mode. If the CU block is rectangular and oriented vertically, i.e. when the height is greater than the width, the order of neighboring blocks checked for available intra prediction modes is A, L, BL, AR, AL It is. Otherwise, the order is L, A, BL, AR, AL.

隣接ブロックの方向性モードに対する最大オフセットは、総MPMリストの中のこの方向性モードのエントリポイントに依存する。隣接ブロックの利用可能な方向性モードが2番目のエントリまたは3番目のエントリのいずれかにある場合(1番目のエントリは平面モードであることに留意されたい)、最大オフセットは4として設定され、そうでない場合、最大オフセットは3として設定される。たとえば、総MPMリストのi番目のエントリはGMPM[ i ]として示される。GMPM[ 0 ]=平面モードである。GMPM[ 1 ]がDCモードであり、GMPM[ 2 ]およびGMPM[ 3 ]が方向性モードである場合、最大オフセットはGMPM[ 2 ]の場合は4であり、GMPM[ 3 ]の場合は3である。GMPM[ 2 ]=20であり、GMPM[ 3 ]=40であると仮定する。その場合、GMPM[ 2 ]からオフセットされた16、17、18、19、21、22、23、および24、ならびにGMPM[ 3 ]からオフセットされた37、38、39、41、42、および43がGMPMリストの中に追加される。 The maximum offset for a directional mode of a neighboring block depends on the entry point of this directional mode in the total MPM list. If the available directional mode of the neighboring block is either the second entry or the third entry (note that the first entry is the planar mode), the maximum offset is set as 4, Otherwise, the maximum offset is set as 3. For example, the ith entry in the total MPM list is denoted as GMPM[i]. GMPM[ 0 ]=Planar mode. When GMPM[ 1 ] is in DC mode and GMPM[ 2 ] and GMPM[ 3 ] are in directional mode, the maximum offset is 4 for GMPM[ 2 ] and 3 for GMPM[ 3 ]. be. Assume that GMPM[ 2 ]=20 and GMPM[ 3 ]=40. In that case, 16, 17, 18, 19, 21, 22, 23, and 24 offset from GMPM[ 2 ] and 37, 38, 39, 41, 42, and 43 offset from GMPM[ 3 ] Added to GMPM list.

ビデオデコーダ300は、CUのイントラモードがPMPMリストの第1のエントリであるかどうかを決定するために、最初に平面フラグを復号およびパースし得る。平面モードが使用されるべきであることを平面フラグが示さない場合、ビデオデコーダ300は、PMPMリストのどのエントリが選択されるかを決定するために、PMPMリストの非平面モードのインデックス値を復号およびパースする。非平面モードのパースされるインデックス値0、1、2、3、4は、PMPMリストの1番目のエントリ、2番目のエントリ、3番目のエントリ、4番目のエントリ、5番目のエントリに対応し、インデックス値0、1、2、3、4のパースされるビンは、それぞれ、0、10、110、1110、1111であることに留意されたい。ビデオエンコーダ200およびビデオデコーダ300は、次のようにPMPMリストの中の非平面モードのインデックスの第1のビンをコーディングするために、3つのコンテキストモデルを使用するように構成され得る。
(ISP)の場合: コンテキストインデックス0を用いて第1のビンをコーディングする。
そうでなく、(MRL)の場合:コンテキストインデックス1を用いて第1のビンをコーディングする。
そうでない場合(通常イントラ):コンテキストインデックス2を用いて第1のビンをコーディングする。
Video decoder 300 may first decode and parse the plane flag to determine whether the CU's intra mode is the first entry in the PMPM list. If the planar flag does not indicate that planar mode should be used, video decoder 300 decodes the index value of the non-planar mode in the PMPM list to determine which entry in the PMPM list is selected. and parse. The parsed index values 0, 1, 2, 3, 4 in non-planar mode correspond to the 1st entry, 2nd entry, 3rd entry, 4th entry, 5th entry in the PMPM list. , note that the parsed bins for index values 0, 1, 2, 3, 4 are 0, 10, 110, 1110, 1111, respectively. Video encoder 200 and video decoder 300 may be configured to use three context models to code the first bin of non-planar mode indices in the PMPM list as follows.
(ISP): Code the first bin using context index 0.
Otherwise, if (MRL): Code the first bin using context index 1.
Otherwise (usually intra): Code the first bin using context index 2.

要約すれば、本開示の一例では、ビデオデコーダ300は、イントラ予測を使用してビデオデータの現在ブロックを復号するように構成され得る。ビデオデコーダ300は、N個のエントリを含む総最確モードリストを構築することであって、総最確モードリストのN個のエントリがイントラ予測モードであり、平面モードが総最確モードリストの中の1番目のエントリである、構築することを行うように構成され得る。ビデオデコーダ300は、総最確モードリストの中の最初のNp個のエントリから1次最確モードリストを構築することであって、NpがN未満である、構築することと、総最確モードリストの中の残り(N-Np個)のエントリから2次最確モードリストを構築することとをさらに行い得る。次いで、ビデオデコーダ300は、1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定することと、ビデオデータの復号されたブロックを生成するために、現在のイントラ予測モードを使用してビデオデータの現在ブロックを復号することとを行い得る。一例では、Nが22であり、Npが6である。 In summary, in one example of this disclosure, video decoder 300 may be configured to decode a current block of video data using intra prediction. The video decoder 300 constructs a total most probable mode list including N entries, where N entries of the total most probable mode list are intra prediction modes and planar modes are of the total most probable mode list. may be configured to do the following: The video decoder 300 is configured to construct a first order most probable mode list from the first Np entries in the total most probable mode list, where Np is less than N; and constructing a quadratic most probable mode list from the remaining (N-Np) entries in the list. Video decoder 300 then determines the current intra-prediction mode for the current block of video data using the first-order most probable mode list or the second-order most probable mode list and the decoded block of video data. The current block of video data may be decoded using the current intra-prediction mode to generate the current intra-prediction mode. In one example, N is 22 and Np is 6.

一例では、現在のイントラ予測モードを決定するために、ビデオデコーダ300は、1次最確モードリストまたは2次最確モードリストへのインデックスを復号することであって、インデックスが、1次最確モードリストまたは2次最確モードリストの中の非平面イントラ予測モードを示す、復号することを行うようにさらに構成され得る。ビデオデコーダ300は、インデックスに基づいてビデオデータの現在ブロックのための現在のイントラ予測モードを決定し得る。 In one example, to determine the current intra-prediction mode, video decoder 300 decodes an index into a first-order most probable mode list or a second-order most probable mode list, where the index The method may be further configured to indicate and decode a non-planar intra-prediction mode in the mode list or the quadratic most probable mode list. Video decoder 300 may determine a current intra prediction mode for a current block of video data based on the index.

さらなる例では、1次最確モードリストまたは2次最確モードリストへのインデックスを復号するために、ビデオデコーダ300は、現在ブロック用に使用されるコーディングツールに基づいてインデックスの第1のビンをエントロピー復号するためのコンテキストを決定することと、コンテキストを使用してインデックスの第1のビンをエントロピー復号することとをさらに行い得る。一例では、コーディングツールは、通常イントラ予測モード、イントラサブパーティションモード、または複数参照ラインモードのうちの1つである。 In a further example, to decode an index into a first-order most probable mode list or a second-order most probable mode list, video decoder 300 determines the first bin of the index based on the coding tool used for the current block. The method may further include determining a context for entropy decoding and using the context to entropy decode the first bin of the index. In one example, the coding tool is in one of a normal intra prediction mode, an intra subpartition mode, or a multiple reference line mode.

本開示の別の例では、総最確モードリストを構築するために、ビデオデコーダ300は、ビデオデータの現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを総最確モードリストに追加することと、それぞれの隣接ブロックからのそれぞれのイントラ予測モードからオフセットされた複数のイントラ予測モードを総最確モードリストに追加することとを行うように構成され得る。一例では、ビデオデコーダ300は、それぞれのイントラ予測モードが利用可能であり、総最確モードリストにまだ追加されていないことに基づいて、ビデオデータの現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを総最確モードリストに追加し得る。 In another example of the present disclosure, to construct the total most probable mode list, video decoder 300 adds each intra-prediction mode from each neighboring block of the current block of video data to the total most probable mode list. and adding a plurality of intra prediction modes offset from respective intra prediction modes from respective neighboring blocks to the total most probable mode list. In one example, video decoder 300 determines whether the respective intra prediction modes from respective neighboring blocks of the current block of video data are available based on whether the respective intra prediction modes are available and have not yet been added to the total most probable mode list. Predictive modes may be added to the total most probable mode list.

他の例では、1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定するために、ビデオデコーダ300は、1次最確モードリストまたは2次最確モードリストのいずれかからの現在の最確モードリストを示すシンタックス要素を復号することと、現在の最確モードリストへのインデックスを復号することと、現在の最確モードリストへのインデックスから現在のイントラ予測モードを決定することとを行うように構成され得る。 In other examples, to determine the current intra-prediction mode for the current block of video data using a first-order most probable mode list or a second-order most probable mode list, video decoder 300 uses a first-order most likely decoding a syntax element indicating a current most probable mode list from either a mode list or a quadratic most probable mode list; decoding an index into the current most probable mode list; and determining a current intra-prediction mode from the index into the mode list.

逆の方法で、ビデオエンコーダ200はまた、イントラ予測を使用してビデオデータの現在ブロックを符号化するように構成される。ビデオエンコーダ200は、N個のエントリを含む総最確モードリストを構築することであって、総最確モードリストのN個のエントリがイントラ予測モードであり、平面モードが総最確モードリストの中の1番目のエントリである、構築することを行うように構成され得る。ビデオエンコーダ200は、総最確モードリストの中の最初のNp個のエントリから1次最確モードリストを構築することであって、NpがN未満である、構築することと、総最確モードリストの中の残り(N-Np個)のエントリから2次最確モードリストを構築することとをさらに行い得る。ビデオエンコーダ200は、1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定することと、ビデオデータの符号化されたブロックを生成するために、現在のイントラ予測モードを使用してビデオデータの現在ブロックを符号化することとをさらに行い得る。一例では、Nが22であり、Npが6である。 In a converse manner, video encoder 200 is also configured to encode the current block of video data using intra prediction. The video encoder 200 constructs a total most probable mode list including N entries, where the N entries of the total most probable mode list are intra prediction modes, and the planar modes are of the total most probable mode list. may be configured to do the following: Video encoder 200 is configured to construct a first order most probable mode list from the first Np entries in the total most probable mode list, where Np is less than N; and constructing a quadratic most probable mode list from the remaining (N-Np) entries in the list. Video encoder 200 determines a current intra-prediction mode for a current block of video data using a first-order most probable mode list or a second-order most probable mode list and an encoded block of video data. The method may further include encoding the current block of video data using the current intra prediction mode to generate the video data. In one example, N is 22 and Np is 6.

本開示の一例では、ビデオエンコーダ200は、1次最確モードリストまたは2次最確モードリストへのインデックスを符号化することであって、インデックスが、1次最確モードリストまたは2次最確モードリストの中の非平面イントラ予測モードを示す、符号化することを行うように構成され得る。 In one example of the present disclosure, video encoder 200 encodes an index to a first-order most probable mode list or a second-order most probable mode list, the index being a first-order most probable mode list or a second-order most probable mode list. The method may be configured to perform encoding indicating a non-planar intra prediction mode in the mode list.

本開示の別の例では、1次最確モードリストまたは2次最確モードリストへのインデックスを符号化するために、ビデオエンコーダ200は、現在ブロック用に使用されるコーディングツールに基づいてインデックスの第1のビンをエントロピー符号化するためのコンテキストを決定することと、コンテキストを使用してインデックスの第1のビンをエントロピー符号化することとを行うように構成され得る。一例では、コーディングツールは、通常イントラ予測モード、イントラサブパーティションモード、または複数参照ラインモードのうちの1つである。 In another example of the present disclosure, to encode an index to a first-order most probable mode list or a second-order most probable mode list, video encoder 200 may determine the index of the index based on the coding tool currently used for the block. The method may be configured to determine a context for entropy encoding a first bin and entropy encoding a first bin of the index using the context. In one example, the coding tool is in one of a normal intra prediction mode, an intra subpartition mode, or a multiple reference line mode.

別の例では、総最確モードリストを構築するために、ビデオエンコーダ200は、ビデオデータの現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを総最確モードリストに追加することと、それぞれの隣接ブロックからのそれぞれのイントラ予測モードからオフセットされた複数のイントラ予測モードを総最確モードリストに追加することとを行うようにさらに構成される。ビデオエンコーダ200は、それぞれのイントラ予測モードが利用可能であり、総最確モードリストにまだ追加されていないことに基づいて、ビデオデータの現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを総最確モードリストに追加し得る。 In another example, to construct the total most probable mode list, video encoder 200 adds each intra-predicted mode from each neighboring block of the current block of video data to the total most probable mode list; and adding a plurality of intra prediction modes offset from respective intra prediction modes from respective neighboring blocks to the total most probable mode list. Video encoder 200 selects each intra-prediction mode from each adjacent block of the current block of video data based on whether the respective intra-prediction mode is available and has not yet been added to the total most probable mode list. Can be added to the total most probable mode list.

図4Aおよび図4Bは、例示的な4分木2分木(QTBT)構造130および対応するコーディングツリーユニット(CTU)132を示す概念図である。実線は4分木分割を表し、点線は2分木分割を示す。2分木の各分割(すなわち、非リーフ)ノードでは、どの分割タイプ(すなわち、水平または垂直)が使用されるかを示すために1つのフラグがシグナリングされ、ここで、この例では、0が水平分割を示し、1が垂直分割を示す。4分木分割の場合、4分木ノードがブロックをサイズが等しい4つのサブブロックに水平にかつ垂直に分割するので、分割タイプを示す必要はない。したがって、ビデオエンコーダ200は、QTBT構造130の領域木レベル(すなわち、実線)のための(分割情報などの)シンタックス要素およびQTBT構造130の予測木レベル(すなわち、破線)のための(分割情報などの)シンタックス要素を符号化し得、ビデオデコーダ300は、それらのシンタックス要素を復号し得る。ビデオエンコーダ200は、QTBT構造130の末端リーフノードによって表されるCUのための、予測データおよび変換データなどのビデオデータを符号化し得、ビデオデコーダ300は、そのビデオデータを復号し得る。 4A and 4B are conceptual diagrams illustrating an example quadtree binary tree (QTBT) structure 130 and a corresponding coding tree unit (CTU) 132. Solid lines represent quadtree partitioning, and dotted lines represent binary tree partitioning. At each split (i.e., non-leaf) node of the binary tree, one flag is signaled to indicate which split type (i.e., horizontal or vertical) is used, where, in this example, 0 Indicates horizontal division and 1 indicates vertical division. For quadtree partitioning, there is no need to indicate the partition type because the quadtree node partitions the block horizontally and vertically into four equal-sized subblocks. Therefore, video encoder 200 uses syntax elements (such as segmentation information) for the region tree level (i.e., solid lines) of QTBT structure 130 and (segmentation information) for the prediction tree level (i.e., dashed lines) of QTBT structure 130. ), and video decoder 300 may decode those syntax elements. Video encoder 200 may encode video data, such as prediction data and transform data, for a CU represented by a terminal leaf node of QTBT structure 130, and video decoder 300 may decode the video data.

一般に、図4BのCTU132は、第1のレベルおよび第2のレベルでQTBT構造130のノードに対応するブロックのサイズを定義するパラメータに関連付けられ得る。これらのパラメータは、CTUサイズ(サンプル中のCTU132のサイズを表す)、最小4分木サイズ(MinQTSize、最小の許容される4分木リーフノードサイズを表す)、最大2分木サイズ(MaxBTSize、最大の許容される2分木ルートノードサイズを表す)、最大2分木深度(MaxBTDepth、最大の許容される2分木深度を表す)、および最小2分木サイズ(MinBTSize、最小の許容される2分木リーフノードサイズを表す)を含み得る。 In general, CTU 132 of FIG. 4B may be associated with parameters that define the size of blocks corresponding to nodes of QTBT structure 130 at a first level and a second level. These parameters are CTU size (representing the size of CTU132 in the sample), minimum quadtree size (MinQTSize, representing the smallest allowed quadtree leaf node size), maximum binary tree size (MaxBTSize, representing the maximum ), the maximum binary tree depth (MaxBTDepth, which represents the maximum allowed binary tree root node size), and the minimum binary tree size (MinBTSize, which represents the minimum allowed binary tree depth of 2 (representing the branch tree leaf node size).

CTUに対応するQTBT構造のルートノードは、QTBT構造の第1のレベルで4個の子ノードを有することがあり、子ノードの各々は、4分木区分に従って区分されることがある。すなわち、第1のレベルのノードは、(子ノードを有しない)リーフノードであるか、4個の子ノードを有するかのいずれかである。QTBT構造130の例は、分岐のための実線を有する親ノードと子ノードとを含むようなノードを表す。第1のレベルのノードが最大の許容される2分木ルートノードサイズ(MaxBTSize)よりも大きくない場合、これらのノードはそれぞれの2分木によってさらに区分され得る。1つのノードの2分木分割は、分割の結果として生じるノードが最小の許容される2分木リーフノードサイズ(MinBTSize)または最大の許容される2分木深度(MaxBTDepth)に達するまで繰り返され得る。QTBT構造130の例は、分岐のための破線を有するようなノードを表す。2分木リーフノードはコーディングユニット(CU)と呼ばれ、コーディングユニット(CU)は、これ以上の区分なしで、予測(たとえば、イントラピクチャ予測またはインターピクチャ予測)および変換のために使用される。上記で説明したように、CUは「ビデオブロック」または「ブロック」と呼ばれることもある。 The root node of the QTBT structure corresponding to a CTU may have four child nodes at the first level of the QTBT structure, and each of the child nodes may be partitioned according to the quadtree partition. That is, a first level node is either a leaf node (with no child nodes) or has four child nodes. An example QTBT structure 130 represents a node that includes a parent node and a child node with solid lines for branching. If the first level nodes are not larger than the maximum allowed binary tree root node size (MaxBTSize), these nodes may be further partitioned by the respective binary tree. Binary tree splitting of one node may be repeated until the resulting node of the split reaches the minimum allowed binary tree leaf node size (MinBTSize) or the maximum allowed binary tree depth (MaxBTDepth) . The example QTBT structure 130 represents such nodes with dashed lines for branches. Binary tree leaf nodes are called coding units (CUs), and coding units (CUs) are used for prediction (eg, intra-picture prediction or inter-picture prediction) and transformation without further partitioning. As explained above, a CU is sometimes referred to as a "video block" or "block."

QTBT区分構造の一例では、CTUサイズは128×128(ルーマサンプルおよび2つの対応する64×64クロマサンプル)として設定され、MinQTSizeは16×16として設定され、MaxBTSizeは64×64として設定され、(幅と高さの両方についての)MinBTSizeは4として設定され、MaxBTDepthは4として設定される。4分木リーフノードを生成するために、4分木区分がまずCTUに適用される。4分木リーフノードは、16×16(すなわち、MinQTSize)から128×128(すなわち、CTUサイズ)までのサイズを有し得る。4分木リーフノードが128×128である場合、サイズがMaxBTSize(すなわち、この例では64×64)を超えるので、リーフ4分木ノードは2分木によってさらに分割されない。それ以外の場合、4分木リーフノードは2分木によってさらに区分される。したがって、4分木リーフノードは2分木のルートノードでもあり、0としての2分木深度を有する。2分木深度がMaxBTDepth(この例では4)に達するとき、さらなる分割は許可されない。MinBTSize(この例では4)に等しい幅を有する2分木ノードは、その2分木ノードに対してさらなる垂直分割(すなわち、幅の分割)が許可されないことを示唆する。同様に、MinBTSizeに等しい高さを有する2分木ノードは、その2分木ノードに対してさらなる水平分割(すなわち、高さの分割)が許可されないことを示唆する。上述のように、2分木のリーフノードはCUと呼ばれ、さらなる区分なしで予測および変換に従ってさらに処理される。 In an example QTBT partitioned structure, CTU size is set as 128x128 (luma sample and two corresponding 64x64 chroma samples), MinQTSize is set as 16x16, MaxBTSize is set as 64x64, and ( MinBTSize (for both width and height) is set as 4 and MaxBTDepth is set as 4. To generate quadtree leaf nodes, quadtree partitioning is first applied to the CTU. A quadtree leaf node may have a size from 16×16 (ie, MinQTSize) to 128×128 (ie, CTU size). If a quadtree leaf node is 128x128, the leaf quadtree node is not further divided by the binary tree because the size exceeds MaxBTSize (ie, 64x64 in this example). Otherwise, the quadtree leaf nodes are further partitioned by a binary tree. Therefore, the quadtree leaf node is also the root node of the binary tree and has the binary tree depth as 0. When the binary tree depth reaches MaxBTDepth (4 in this example), no further splits are allowed. A binary tree node with a width equal to MinBTSize (4 in this example) suggests that no further vertical splits (ie, width splits) are allowed for that binary tree node. Similarly, a binary tree node with a height equal to MinBTSize suggests that no further horizontal splits (ie, height splits) are allowed for that binary tree node. As mentioned above, the leaf nodes of the binary tree are called CUs and are further processed according to predictions and transformations without further partitioning.

図5は、本開示の技法を実行し得る例示的なビデオエンコーダ200を示すブロック図である。図5は説明のために提供され、本開示において広く例示および説明するような技法の限定と見なされるべきではない。説明のために、本開示は、VVC(開発中のITU-T H.266)、およびHEVC(ITU-T H.265)の技法によるビデオエンコーダ200について説明する。しかしながら、本開示の技法は、他のビデオコーディング規格に従って構成されたビデオ符号化デバイスによって実行され得る。 FIG. 5 is a block diagram illustrating an example video encoder 200 that may implement the techniques of this disclosure. FIG. 5 is provided for illustrative purposes and should not be considered a limitation of the techniques as broadly illustrated and described in this disclosure. For purposes of illustration, this disclosure describes a video encoder 200 in accordance with VVC (ITU-T H.266 under development) and HEVC (ITU-T H.265) techniques. However, the techniques of this disclosure may be performed by video encoding devices configured according to other video coding standards.

図5の例では、ビデオエンコーダ200は、ビデオデータメモリ230、モード選択ユニット202、残差生成ユニット204、変換処理ユニット206、量子化ユニット208、逆量子化ユニット210、逆変換処理ユニット212、再構成ユニット214、フィルタユニット216、復号ピクチャバッファ(DPB)218、およびエントロピー符号化ユニット220を含む。ビデオデータメモリ230、モード選択ユニット202、残差生成ユニット204、変換処理ユニット206、量子化ユニット208、逆量子化ユニット210、逆変換処理ユニット212、再構成ユニット214、フィルタユニット216、DPB218、およびエントロピー符号化ユニット220のいずれかまたはすべては、1つもしくは複数のプロセッサにおいてまたは処理回路において実装され得る。たとえば、ビデオエンコーダ200のユニットは、ハードウェア回路の一部としての1つもしくは複数の回路もしくは論理要素として、またはプロセッサ、ASIC、もしくはFPGAの一部として実装され得る。さらに、ビデオエンコーダ200は、これらおよび他の機能を実行するための追加または代替のプロセッサまたは処理回路を含み得る。 In the example of FIG. 5, video encoder 200 includes video data memory 230, mode selection unit 202, residual generation unit 204, transform processing unit 206, quantization unit 208, inverse quantization unit 210, inverse transform processing unit 212, It includes a configuration unit 214, a filter unit 216, a decoded picture buffer (DPB) 218, and an entropy encoding unit 220. Video data memory 230, mode selection unit 202, residual generation unit 204, transform processing unit 206, quantization unit 208, inverse quantization unit 210, inverse transform processing unit 212, reconstruction unit 214, filter unit 216, DPB 218, and Any or all of entropy encoding units 220 may be implemented in one or more processors or in processing circuitry. For example, a unit of video encoder 200 may be implemented as one or more circuits or logic elements as part of a hardware circuit, or as part of a processor, ASIC, or FPGA. Additionally, video encoder 200 may include additional or alternative processors or processing circuits to perform these and other functions.

ビデオデータメモリ230は、ビデオエンコーダ200の構成要素によって符号化されるべきビデオデータを記憶し得る。ビデオエンコーダ200は、たとえば、ビデオソース104(図1)から、ビデオデータメモリ230に記憶されたビデオデータを受信し得る。DPB218は、ビデオエンコーダ200による後続のビデオデータの予測において使用するための参照ビデオデータを記憶する参照ピクチャメモリとして働き得る。ビデオデータメモリ230およびDPB218は、同期DRAM(SDRAM)を含むダイナミックランダムアクセスメモリ(DRAM)、磁気抵抗RAM(MRAM)、抵抗RAM(RRAM)、または他のタイプのメモリデバイスなどの、様々なメモリデバイスのいずれかによって形成され得る。ビデオデータメモリ230およびDPB218は、同じメモリデバイスまたは別個のメモリデバイスによって提供され得る。様々な例では、ビデオデータメモリ230は、図示のように、ビデオエンコーダ200の他の構成要素とともにオンチップであってもよく、またはそれらの構成要素に対してオフチップであってもよい。 Video data memory 230 may store video data to be encoded by components of video encoder 200. Video encoder 200 may receive video data stored in video data memory 230, for example, from video source 104 (FIG. 1). DPB 218 may act as a reference picture memory that stores reference video data for use in predicting subsequent video data by video encoder 200. Video data memory 230 and DPB 218 may be used in a variety of memory devices, such as dynamic random access memory (DRAM), including synchronous DRAM (SDRAM), magnetoresistive RAM (MRAM), resistive RAM (RRAM), or other types of memory devices. It can be formed by any of the following. Video data memory 230 and DPB 218 may be provided by the same memory device or separate memory devices. In various examples, video data memory 230 may be on-chip with other components of video encoder 200, as shown, or off-chip with respect to those components.

本開示では、ビデオデータメモリ230への言及は、そのようなものとして特に説明されていない限り、ビデオエンコーダ200の内部のメモリ、または、そのようなものとして特に説明されていない限り、ビデオエンコーダ200の外部のメモリに限定されるものとして解釈されるべきではない。むしろ、ビデオデータメモリ230への言及は、符号化するためにビデオエンコーダ200が受信するビデオデータ(たとえば、符号化されるべき現在ブロックのためのビデオデータ)を記憶する参照メモリとして理解されるべきである。図1のメモリ106はまた、ビデオエンコーダ200の様々なユニットからの出力の一時的な記憶を提供し得る。 In this disclosure, references to video data memory 230 refer to memory internal to video encoder 200, unless specifically described as such; should not be construed as being limited to memory external to . Rather, references to video data memory 230 should be understood as a reference memory that stores video data that video encoder 200 receives for encoding (e.g., video data for the current block to be encoded). It is. Memory 106 of FIG. 1 may also provide temporary storage of outputs from various units of video encoder 200.

図5の様々なユニットは、ビデオエンコーダ200によって実行される動作を理解することを助けるために図示されている。ユニットは、固定機能回路、プログラマブル回路、またはそれらの組合せとして実装され得る。固定機能回路は、特定の機能を提供する回路を指し、実行され得る動作に対してプリセットされる。プログラマブル回路は、様々なタスクを実行するようにプログラムされ得る回路を指し、実行され得る動作において柔軟な機能を提供する。たとえば、プログラマブル回路は、ソフトウェアまたはファームウェアの命令によって定義された方法でプログラマブル回路を動作させるソフトウェアまたはファームウェアを実行し得る。固定機能回路は(たとえば、パラメータを受信するまたはパラメータを出力するための)ソフトウェア命令を実行し得るが、固定機能回路が実行する動作のタイプは概して不変である。いくつかの例では、ユニットのうちの1つまたは複数は異なる回路ブロック(固定機能またはプログラマブル)であってもよく、いくつかの例では、ユニットのうちの1つまたは複数は集積回路であってもよい。 The various units in FIG. 5 are illustrated to aid in understanding the operations performed by video encoder 200. A unit may be implemented as a fixed function circuit, a programmable circuit, or a combination thereof. Fixed function circuitry refers to circuitry that provides a specific function and is preset for the operations that may be performed. Programmable circuit refers to a circuit that can be programmed to perform a variety of tasks, providing flexibility in the operations that can be performed. For example, a programmable circuit may execute software or firmware that causes the programmable circuit to operate in a manner defined by the software or firmware instructions. Although fixed function circuits may execute software instructions (eg, to receive parameters or output parameters), the types of operations that fixed function circuits perform generally remain unchanged. In some examples, one or more of the units may be different circuit blocks (fixed function or programmable), and in some examples, one or more of the units may be an integrated circuit. Good too.

ビデオエンコーダ200は、算術論理ユニット(ALU)、初等関数ユニット(EFU)、デジタル回路、アナログ回路、および/またはプログラマブル回路から形成されたプログラマブルコアを含み得る。ビデオエンコーダ200の動作がプログラマブル回路によって実行されるソフトウェアを使用して実行される例では、メモリ106(図1)が、ビデオエンコーダ200が受信および実行するソフトウェアの命令(たとえば、オブジェクトコード)を記憶してもよく、またはビデオエンコーダ200内の別のメモリ(図示せず)が、そのような命令を記憶してもよい。 Video encoder 200 may include a programmable core formed from an arithmetic logic unit (ALU), an elementary function unit (EFU), digital circuitry, analog circuitry, and/or programmable circuitry. In examples where the operations of video encoder 200 are performed using software executed by programmable circuitry, memory 106 (FIG. 1) stores software instructions (e.g., object code) that video encoder 200 receives and executes. or another memory (not shown) within video encoder 200 may store such instructions.

ビデオデータメモリ230は、受信されたビデオデータを記憶するように構成される。ビデオエンコーダ200は、ビデオデータメモリ230からビデオデータのピクチャを取り出し、ビデオデータを残差生成ユニット204およびモード選択ユニット202に提供し得る。ビデオデータメモリ230中のビデオデータは、符号化されるべき未加工ビデオデータであり得る。 Video data memory 230 is configured to store received video data. Video encoder 200 may retrieve pictures of video data from video data memory 230 and provide video data to residual generation unit 204 and mode selection unit 202. The video data in video data memory 230 may be raw video data to be encoded.

モード選択ユニット202は、動き推定ユニット222、動き補償ユニット224、およびイントラ予測ユニット226を含む。モード選択ユニット202は、他の予測モードに従ってビデオ予測を実行するための追加の機能ユニットを含み得る。例として、モード選択ユニット202は、パレットユニット、(動き推定ユニット222および/または動き補償ユニット224の一部であり得る)イントラブロックコピーユニット、アフィンユニット、線形モデル(LM)ユニットなどを含み得る。 Mode selection unit 202 includes a motion estimation unit 222, a motion compensation unit 224, and an intra prediction unit 226. Mode selection unit 202 may include additional functional units for performing video prediction according to other prediction modes. By way of example, mode selection unit 202 may include a palette unit, an intra block copy unit (which may be part of motion estimation unit 222 and/or motion compensation unit 224), an affine unit, a linear model (LM) unit, etc.

モード選択ユニット202は、一般に、符号化パラメータの組合せおよびそのような組合せに対する結果として生じるレートひずみ値をテストするために複数の符号化パスを協調させる。符号化パラメータは、CUへのCTUの区分、CUのための予測モード、CUの残差データのための変換タイプ、CUの残差データのための量子化パラメータなどを含み得る。モード選択ユニット202は、その他のテストされた組合せよりも良いレートひずみ値を有する符号化パラメータの組合せを最終的に選択し得る。 Mode selection unit 202 generally coordinates multiple encoding passes to test combinations of encoding parameters and resulting rate-distortion values for such combinations. The encoding parameters may include partitioning of the CTU into CUs, a prediction mode for the CU, a transform type for the residual data of the CU, a quantization parameter for the residual data of the CU, etc. Mode selection unit 202 may ultimately select a combination of encoding parameters that has a better rate-distortion value than other tested combinations.

ビデオエンコーダ200は、ビデオデータメモリ230から取り出されたピクチャを一連のCTUに区分し、スライス内に1つまたは複数のCTUをカプセル化し得る。モード選択ユニット202は、上記で説明したHEVCのQTBT構造または4分木構造などのツリー構造に従ってピクチャのCTUを区分し得る。上記で説明したように、ビデオエンコーダ200は、ツリー構造に従ってCTUを区分することから1つまたは複数のCUを形成し得る。そのようなCUは、一般に、「ビデオブロック」または「ブロック」と呼ばれることもある。 Video encoder 200 may partition a picture retrieved from video data memory 230 into a series of CTUs and encapsulate one or more CTUs within a slice. Mode selection unit 202 may partition the CTU of a picture according to a tree structure, such as the HEVC QTBT structure or quadtree structure described above. As explained above, video encoder 200 may form one or more CUs from partitioning the CTUs according to a tree structure. Such a CU is also commonly referred to as a "video block" or "block."

一般に、モード選択ユニット202はまた、現在ブロック(たとえば、現在のCU、またはHEVCでは、PUおよびTUの重複する部分)のための予測ブロックを生成するために、その構成要素(たとえば、動き推定ユニット222、動き補償ユニット224、およびイントラ予測ユニット226)を制御する。現在ブロックのインター予測の場合、動き推定ユニット222は、1つまたは複数の参照ピクチャ(たとえば、DPB218に記憶された1つまたは複数の以前にコーディングされたピクチャ)中の1つまたは複数の厳密に一致する参照ブロックを識別するために動き探索を実行し得る。具体的には、動き推定ユニット222は、たとえば、絶対差分和(SAD)、2乗差分和(SSD)、平均絶対差(MAD)、平均2乗差(MSD)などに従って、潜在的な参照ブロックが現在ブロックにどのくらい類似しているかを表す値を計算し得る。動き推定ユニット222は、一般に、現在ブロックと考慮されている参照ブロックとの間のサンプルごとの差分を使用してこれらの計算を実行し得る。動き推定ユニット222は、現在ブロックに最も厳密に一致する参照ブロックを示す、これらの計算の結果として生じる最も低い値を有する参照ブロックを識別し得る。 In general, mode selection unit 202 also selects its components (e.g., motion estimation unit 222, a motion compensation unit 224, and an intra prediction unit 226). For inter prediction of the current block, motion estimation unit 222 determines whether one or more precisely Motion search may be performed to identify matching reference blocks. Specifically, motion estimation unit 222 estimates potential reference blocks according to, e.g., sum of absolute differences (SAD), sum of squared differences (SSD), mean absolute difference (MAD), mean squared difference (MSD), etc. may calculate a value representing how similar is the current block. Motion estimation unit 222 may generally perform these calculations using sample-by-sample differences between the current block and the considered reference block. Motion estimation unit 222 may identify the reference block with the lowest value resulting from these calculations, indicating the reference block that most closely matches the current block.

動き推定ユニット222は、現在のピクチャ中の現在ブロックの位置に対する参照ピクチャ中の参照ブロックの位置を定義する1つまたは複数の動きベクトル(MV)を形成し得る。次いで、動き推定ユニット222は動きベクトルを動き補償ユニット224に提供し得る。たとえば、単方向インター予測の場合、動き推定ユニット222は単一の動きベクトルを提供し得るが、双方向インター予測の場合、動き推定ユニット222は2つの動きベクトルを提供し得る。次いで、動き補償ユニット224は、動きベクトルを使用して予測ブロックを生成し得る。たとえば、動き補償ユニット224は、動きベクトルを使用して参照ブロックのデータを取り出し得る。別の例として、動きベクトルがフラクショナルサンプル精度を有する場合、動き補償ユニット224は、1つまたは複数の補間フィルタに従って予測ブロックのための値を補間し得る。さらに、双方向インター予測の場合、動き補償ユニット224は、それぞれの動きベクトルによって識別された2つの参照ブロックのためのデータを取り出し、たとえば、サンプルごとの平均化または重み付けされた平均化によって、取り出されたデータを合成し得る。 Motion estimation unit 222 may form one or more motion vectors (MVs) that define the position of a reference block in a reference picture relative to the position of a current block in a current picture. Motion estimation unit 222 may then provide the motion vector to motion compensation unit 224. For example, for unidirectional inter-prediction, motion estimation unit 222 may provide a single motion vector, whereas for bidirectional inter-prediction, motion estimation unit 222 may provide two motion vectors. Motion compensation unit 224 may then generate a predictive block using the motion vector. For example, motion compensation unit 224 may use motion vectors to retrieve data for reference blocks. As another example, if the motion vector has fractional sample accuracy, motion compensation unit 224 may interpolate the values for the predictive block according to one or more interpolation filters. Additionally, for bidirectional inter-prediction, motion compensation unit 224 retrieves the data for the two reference blocks identified by their respective motion vectors, e.g., by sample-by-sample averaging or weighted averaging. data can be synthesized.

別の例として、イントラ予測またはイントラ予測コーディングの場合、イントラ予測ユニット226は、現在ブロックに隣接するサンプルから予測ブロックを生成し得る。たとえば、方向モードの場合、イントラ予測ユニット226は、一般に、隣接サンプルの値を数学的に合成し、これらの計算された値を現在ブロックにわたる定義された方向にポピュレートして、予測ブロックを生成し得る。別の例として、DCモードの場合、イントラ予測ユニット226は、現在ブロックに対する隣接サンプルの平均を計算し、予測ブロックのサンプルごとにこの結果として生じる平均を含めるべき予測ブロックを生成し得る。 As another example, for intra prediction or intra predictive coding, intra prediction unit 226 may generate a predictive block from samples adjacent to the current block. For example, for directional mode, intra prediction unit 226 typically mathematically combines the values of adjacent samples and populates these calculated values in a defined direction across the current block to generate the predicted block. obtain. As another example, for DC mode, intra prediction unit 226 may calculate the average of adjacent samples for the current block and generate a prediction block that should include this resulting average for each sample of the prediction block.

上記で説明した本開示の技法によれば、イントラ予測ユニット226は、N個のエントリを含む総最確モードリストを構築することであって、総最確モードリストのN個のエントリがイントラ予測モードであり、平面モードが総最確モードリストの中の1番目のエントリである、構築することと、総最確モードリストの中の最初のNp個のエントリから1次最確モードリストを構築することであって、NpがN未満である、構築することと、総最確モードリストの中の残り(N-Np個)のエントリから2次最確モードリストを構築することと、1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定することと、ビデオデータの符号化されたブロックを生成するために、現在のイントラ予測モードを使用してビデオデータの現在ブロックを符号化することとを行うように構成され得る。 According to the techniques of the present disclosure described above, intra prediction unit 226 constructs a total most probable mode list including N entries, wherein the N entries of the total most probable mode list are intra predictions. mode and the planar mode is the first entry in the total most probable mode list, and constructing a first order most probable mode list from the first Np entries in the total most probable mode list. constructing a quadratic most probable mode list from the remaining (N-Np) entries in the total most probable mode list, with Np less than N; Determining the current intra-prediction mode for the current block of video data using the most probable mode list or the quadratic most probable mode list and using the current and encoding a current block of video data using an intra-prediction mode.

モード選択ユニット202は、予測ブロックを残差生成ユニット204に提供する。残差生成ユニット204は、ビデオデータメモリ230から現在ブロックの未加工の符号化されていないバージョンを受信し、モード選択ユニット202から予測ブロックを受信する。残差生成ユニット204は、現在ブロックと予測ブロックとの間のサンプルごとの差分を計算する。結果として生じるサンプルごとの差分は、現在ブロックのための残差ブロックを定義する。いくつかの例では、残差生成ユニット204はまた、残差差分パルスコード変調(RDPCM)を使用して残差ブロックを生成するために、残差ブロック中のサンプル値の間の差分を決定し得る。いくつかの例では、残差生成ユニット204は、バイナリ減算を実行する1つまたは複数の減算器回路を使用して形成され得る。 Mode selection unit 202 provides predictive blocks to residual generation unit 204. Residual generation unit 204 receives the raw, unencoded version of the current block from video data memory 230 and receives the predictive block from mode selection unit 202. Residual generation unit 204 calculates the sample-by-sample difference between the current block and the predicted block. The resulting sample-by-sample differences define the residual block for the current block. In some examples, residual generation unit 204 also determines differences between sample values in the residual block to generate the residual block using residual differential pulse code modulation (RDPCM). obtain. In some examples, residual generation unit 204 may be formed using one or more subtractor circuits that perform binary subtraction.

モード選択ユニット202がCUをPUに区分する例では、各PUはルーマ予測ユニットおよび対応するクロマ予測ユニットに関連付けられ得る。ビデオエンコーダ200およびビデオデコーダ300は、様々なサイズを有するPUをサポートし得る。上記で示したように、CUのサイズは、CUのルーマコーディングブロックのサイズを指すことがあり、PUのサイズは、PUのルーマ予測ユニットのサイズを指すことがある。特定のCUのサイズが2N×2Nであると仮定すると、ビデオエンコーダ200は、イントラ予測に対して2N×2NまたはN×NのPUサイズ、およびインター予測に対して2N×2N、2N×N、N×2N、N×N、または類似の、対称のPUサイズをサポートし得る。ビデオエンコーダ200およびビデオデコーダ300はまた、インター予測に対して2N×nU、2N×nD、nL×2N、およびnR×2NのPUサイズのための非対称区分をサポートし得る。 In examples where mode selection unit 202 partitions CUs into PUs, each PU may be associated with a luma prediction unit and a corresponding chroma prediction unit. Video encoder 200 and video decoder 300 may support PUs with various sizes. As indicated above, the size of a CU may refer to the size of the luma coding block of the CU, and the size of the PU may refer to the size of the luma prediction unit of the PU. Assuming that the size of a particular CU is 2N×2N, video encoder 200 uses a PU size of 2N×2N or N×N for intra prediction and 2N×2N, 2N×N, Symmetrical PU sizes may be supported, such as N×2N, N×N, or similar. Video encoder 200 and video decoder 300 may also support asymmetric partitioning for PU sizes of 2N×nU, 2N×nD, nL×2N, and nR×2N for inter prediction.

モード選択ユニット202がCUをPUにさらに区分しない例では、各PUはルーマコーディングブロックおよび対応するクロマコーディングブロックに関連付けられ得る。上記のように、CUのサイズは、CUのルーマコーディングブロックのサイズを指すことがある。ビデオエンコーダ200およびビデオデコーダ300は、2N×2N、2N×N、またはN×2NのCUサイズをサポートし得る。 In examples where mode selection unit 202 does not further partition the CUs into PUs, each PU may be associated with a luma coding block and a corresponding chroma coding block. As mentioned above, the size of a CU may refer to the size of the luma coding block of the CU. Video encoder 200 and video decoder 300 may support CU sizes of 2N×2N, 2N×N, or N×2N.

いくつかの例として、イントラブロックコピーモードコーディング、アフィンモードコーディング、および線形モデル(LM)モードコーディングなどの他のビデオコーディング技法の場合、モード選択ユニット202は、コーディング技法に関連付けられたそれぞれのユニットを介して、符号化されている現在ブロックのための予測ブロックを生成する。パレットモードコーディングなどのいくつかの例では、モード選択ユニット202は、予測ブロックを生成しなくてもよく、代わりに、選択されたパレットに基づいてブロックを再構成する方法を示すシンタックス要素を生成してもよい。そのようなモードでは、モード選択ユニット202は、符号化されるべきこれらのシンタックス要素をエントロピー符号化ユニット220に提供し得る。 For other video coding techniques, such as intra block copy mode coding, affine mode coding, and linear model (LM) mode coding, as some examples, mode selection unit 202 selects the respective units associated with the coding technique. generate a predictive block for the current block being encoded. In some examples, such as palette mode coding, mode selection unit 202 may not generate predictive blocks, but instead generates syntax elements that indicate how to reconstruct the blocks based on the selected palette. You may. In such a mode, mode selection unit 202 may provide these syntax elements to be encoded to entropy encoding unit 220.

上記で説明したように、残差生成ユニット204は、現在ブロックおよび対応する予測ブロックのためのビデオデータを受信する。次いで、残差生成ユニット204は現在ブロックのための残差ブロックを生成する。残差ブロックを生成するために、残差生成ユニット204は予測ブロックと現在ブロックとの間のサンプルごとの差分を計算する。 As explained above, residual generation unit 204 receives video data for the current block and the corresponding predictive block. Residual generation unit 204 then generates a residual block for the current block. To generate a residual block, residual generation unit 204 calculates the sample-by-sample difference between the predicted block and the current block.

変換処理ユニット206は、変換係数のブロック(本明細書では「変換係数ブロック」と呼ばれる)を生成するために、1つまたは複数の変換を残差ブロックに適用する。変換処理ユニット206は、変換係数ブロックを形成するために、様々な変換を残差ブロックに適用し得る。たとえば、変換処理ユニット206は、離散コサイン変換(DCT)、方向変換、カルーネンレーベ変換(KLT)、または概念的に類似の変換を残差ブロックに適用し得る。いくつかの例では、変換処理ユニット206は、複数の変換、たとえば、回転変換などの、一次変換および二次変換を残差ブロックに対して実行し得る。いくつかの例では、変換処理ユニット206は、変換を残差ブロックに適用しない。 Transform processing unit 206 applies one or more transforms to the residual block to generate a block of transform coefficients (referred to herein as a "transform coefficient block"). Transform processing unit 206 may apply various transforms to the residual block to form a transform coefficient block. For example, transform processing unit 206 may apply a discrete cosine transform (DCT), a directional transform, a Karhunen-Loeve transform (KLT), or a conceptually similar transform to the residual block. In some examples, transform processing unit 206 may perform multiple transforms, eg, linear and quadratic transforms, such as rotation transforms, on the residual block. In some examples, transform processing unit 206 does not apply a transform to the residual block.

量子化ユニット208は、変換係数ブロック中で変換係数を量子化して、量子化された変換係数ブロックを生成し得る。量子化ユニット208は、現在ブロックに関連付けられた量子化パラメータ(QP)値に従って変換係数ブロックの変換係数を量子化し得る。ビデオエンコーダ200は(たとえば、モード選択ユニット202を介して)、CUに関連付けられたQP値を調整することによって、現在ブロックに関連付けられた変換係数ブロックに適用される量子化の程度を調整し得る。量子化は情報の損失をもたらすことがあり、したがって、量子化された変換係数は変換処理ユニット206によって生成された元の変換係数よりも低い精度を有することがある。 Quantization unit 208 may quantize the transform coefficients in the transform coefficient block to produce a quantized transform coefficient block. Quantization unit 208 may quantize the transform coefficients of the transform coefficient block according to a quantization parameter (QP) value associated with the current block. Video encoder 200 (e.g., via mode selection unit 202) may adjust the degree of quantization applied to the transform coefficient block associated with the current block by adjusting the QP value associated with the CU. . Quantization may result in a loss of information, and therefore the quantized transform coefficients may have lower accuracy than the original transform coefficients produced by transform processing unit 206.

逆量子化ユニット210および逆変換処理ユニット212は、それぞれ、逆量子化および逆変換を量子化された変換係数ブロックに適用して、変換係数ブロックから残差ブロックを再構成し得る。再構成ユニット214は、再構成された残差ブロックおよびモード選択ユニット202によって生成された予測ブロックに基づいて、(ある程度のひずみを伴う可能性があるが)現在ブロックに対応する再構成されたブロックを生成し得る。たとえば、再構成ユニット214は、再構成された残差ブロックのサンプルをモード選択ユニット202によって生成された予測ブロックからの対応するサンプルに加えて、再構成されたブロックを生成し得る。 Inverse quantization unit 210 and inverse transform processing unit 212 may apply inverse quantization and inverse transform, respectively, to the quantized transform coefficient block to reconstruct a residual block from the transform coefficient block. The reconstruction unit 214 generates a reconstructed block corresponding to the current block (possibly with some distortion) based on the reconstructed residual block and the prediction block generated by the mode selection unit 202. can be generated. For example, reconstruction unit 214 may add samples of the reconstructed residual block to corresponding samples from the predictive block generated by mode selection unit 202 to generate a reconstructed block.

フィルタユニット216は、再構成されたブロックに対して1つまたは複数のフィルタ動作を実行し得る。たとえば、フィルタユニット216は、CUの端部に沿ってブロッキネスアーティファクトを低減するためにデブロッキング動作を実行し得る。フィルタユニット216の動作は、いくつかの例では、スキップされ得る。 Filter unit 216 may perform one or more filter operations on the reconstructed blocks. For example, filter unit 216 may perform a deblocking operation to reduce blockiness artifacts along the edges of the CU. Operation of filter unit 216 may be skipped in some examples.

ビデオエンコーダ200は、再構成されたブロックをDPB218に記憶する。たとえば、フィルタユニット216の動作が実行されない例では、再構成ユニット214が再構成されたブロックをDPB218に記憶し得る。フィルタユニット216の動作が実行される例では、フィルタユニット216がフィルタ処理され再構成されたブロックをDPB218に記憶し得る。動き推定ユニット222および動き補償ユニット224は、後で符号化されるピクチャのブロックをインター予測するために、再構成された(かつ場合によってはフィルタリングされた)ブロックから形成された参照ピクチャをDPB218から取り出し得る。加えて、イントラ予測ユニット226は、現在のピクチャ中の他のブロックをイントラ予測するために、現在のピクチャのDPB218中の再構成されたブロックを使用し得る。 Video encoder 200 stores the reconstructed blocks in DPB 218. For example, in instances where the operations of filter unit 216 are not performed, reconstruction unit 214 may store reconstructed blocks in DPB 218. In examples where the operations of filter unit 216 are performed, filter unit 216 may store the filtered and reconstructed blocks in DPB 218. Motion estimation unit 222 and motion compensation unit 224 extract reference pictures formed from the reconstructed (and possibly filtered) blocks from DPB 218 in order to inter-predict blocks of pictures that are subsequently coded. It can be taken out. Additionally, intra prediction unit 226 may use the reconstructed blocks in DPB 218 of the current picture to intra predict other blocks in the current picture.

一般に、エントロピー符号化ユニット220は、ビデオエンコーダ200の他の機能構成要素から受信されたシンタックス要素をエントロピー符号化し得る。たとえば、エントロピー符号化ユニット220は、量子化ユニット208からの量子化された変換係数ブロックをエントロピー符号化し得る。別の例として、エントロピー符号化ユニット220は、モード選択ユニット202からの予測シンタックス要素(たとえば、インター予測のための動き情報またはイントラ予測のためのイントラモード情報)をエントロピー符号化し得る。エントロピー符号化ユニット220は、ビデオデータの別の例であるシンタックス要素に対して1つまたは複数のエントロピー符号化動作を実行して、エントロピー符号化されたデータを生成し得る。たとえば、エントロピー符号化ユニット220は、コンテキスト適応型可変長コーディング(CAVLC)動作、CABAC動作、可変対可変(V2V)長コーディング動作、シンタックスベースのコンテキスト適応型バイナリ算術コーディング(SBAC)動作、確率間隔区分エントロピー(PIPE)コーディング動作、指数ゴロム符号化動作、または別のタイプのエントロピー符号化動作をデータに対して実行し得る。いくつかの例では、エントロピー符号化ユニット220は、シンタックス要素がエントロピー符号化されないバイパスモードで動作し得る。 Generally, entropy encoding unit 220 may entropy encode syntax elements received from other functional components of video encoder 200. For example, entropy encoding unit 220 may entropy encode the quantized transform coefficient block from quantization unit 208. As another example, entropy encoding unit 220 may entropy encode prediction syntax elements (eg, motion information for inter prediction or intra mode information for intra prediction) from mode selection unit 202. Entropy encoding unit 220 may perform one or more entropy encoding operations on syntax elements that are another example of video data to generate entropy encoded data. For example, entropy encoding unit 220 may perform a context adaptive variable length coding (CAVLC) operation, a CABAC operation, a variable-to-variable (V2V) length coding operation, a syntax-based context adaptive binary arithmetic coding (SBAC) operation, a probability interval A piecewise entropy (PIPE) coding operation, an exponential Golomb coding operation, or another type of entropy coding operation may be performed on the data. In some examples, entropy encoding unit 220 may operate in a bypass mode in which syntax elements are not entropy encoded.

ビデオエンコーダ200は、スライスまたはピクチャのブロックを再構成するために必要とされるエントロピー符号化されたシンタックス要素を含むビットストリームを出力し得る。具体的には、エントロピー符号化ユニット220がビットストリームを出力し得る。 Video encoder 200 may output a bitstream that includes entropy encoded syntax elements needed to reconstruct slices or blocks of pictures. Specifically, entropy encoding unit 220 may output a bitstream.

上記で説明した動作は、ブロックに関して説明されている。そのような説明は、ルーマコーディングブロックおよび/またはクロマコーディングブロックのための動作であるものとして理解されるべきである。上記で説明したように、いくつかの例では、ルーマコーディングブロックおよびクロマコーディングブロックは、CUのルーマ成分およびクロマ成分である。いくつかの例では、ルーマコーディングブロックおよびクロマコーディングブロックは、PUのルーマ成分およびクロマ成分である。 The operations described above are described in terms of blocks. Such descriptions should be understood as being operations for luma coding blocks and/or chroma coding blocks. As explained above, in some examples, the luma and chroma coding blocks are the luma and chroma components of the CU. In some examples, the luma coding block and chroma coding block are the luma and chroma components of the PU.

いくつかの例では、ルーマコーディングブロックに関して実行される動作は、クロマコーディングブロックのために繰り返される必要はない。一例として、ルーマコーディングブロックのための動きベクトル(MV)および参照ピクチャを識別するための動作は、クロマコーディングブロックのためのMVおよび参照ピクチャを識別するために繰り返される必要はない。むしろ、ルーマコーディングブロックのためのMVはクロマコーディングブロックのためのMVを決定するためにスケーリングされてもよく、参照ピクチャは同じであってもよい。別の例として、イントラ予測プロセスは、ルーマコーディングブロックおよびクロマコーディングブロックについて同じであってもよい。 In some examples, operations performed on luma coding blocks need not be repeated for chroma coding blocks. As an example, the operations for identifying motion vectors (MVs) and reference pictures for luma coding blocks do not need to be repeated to identify MVs and reference pictures for chroma coding blocks. Rather, the MV for the luma coding block may be scaled to determine the MV for the chroma coding block, and the reference picture may be the same. As another example, the intra prediction process may be the same for luma coding blocks and chroma coding blocks.

ビデオエンコーダ200は、ビデオデータを符号化するように構成されたデバイスであって、ビデオデータを記憶するように構成されたメモリと、回路において実装され、N個のエントリを含む総最確モードリストを構築することであって、総最確モードリストのN個のエントリがイントラ予測モードであり、平面モードが総最確モードリストの中の1番目のエントリである、構築することと、総最確モードリストの中の最初のNp個のエントリから1次最確モードリストを構築することであって、NpがN未満である、構築することと、総最確モードリストの中の残り(N-Np個)のエントリから2次最確モードリストを構築することと、1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定することと、ビデオデータの符号化されたブロックを生成するために、現在のイントラ予測モードを使用してビデオデータの現在ブロックを符号化することとを行うように構成された1つまたは複数の処理ユニットとを含むデバイスの一例を表す。 Video encoder 200 is a device configured to encode video data, comprising a memory configured to store the video data and a total most probable mode list implemented in circuit and including N entries. , the N entries of the total most probable mode list are intra-prediction modes, and the planar mode is the first entry in the total most probable mode list. constructing a first-order most probable mode list from the first Np entries in the probable mode list, where Np is less than N, and the remaining (N -Np) entries and use the first-order most probable mode list or the second-order most probable mode list to determine the current intra-prediction mode for the current block of video data. one or more configured to: determine, and encode the current block of video data using the current intra prediction mode to generate an encoded block of video data. represents an example of a device including a processing unit.

図6は、本開示の技法を実行し得る例示的なビデオデコーダ300を示すブロック図である。図6は説明のために提供され、本開示において広く例示および説明するような技法を限定するものではない。説明のために、本開示は、VVC(開発中のITU-T H.266)、およびHEVC(ITU-T H.265)の技法によるビデオデコーダ300について説明する。しかしながら、本開示の技法は、他のビデオコーディング規格に従って構成されたビデオコーディングデバイスによって実行され得る。 FIG. 6 is a block diagram illustrating an example video decoder 300 that may implement the techniques of this disclosure. FIG. 6 is provided for purposes of illustration and not limitation of the techniques as broadly illustrated and described in this disclosure. For purposes of explanation, this disclosure describes a video decoder 300 in accordance with VVC (ITU-T H.266 under development) and HEVC (ITU-T H.265) techniques. However, the techniques of this disclosure may be performed by video coding devices configured according to other video coding standards.

図6の例では、ビデオデコーダ300は、コード化ピクチャバッファ(CPB)メモリ320、エントロピー復号ユニット302、予測処理ユニット304、逆量子化ユニット306、逆変換処理ユニット308、再構成ユニット310、フィルタユニット312、および復号ピクチャバッファ(DPB)314を含む。CPBメモリ320、エントロピー復号ユニット302、予測処理ユニット304、逆量子化ユニット306、逆変換処理ユニット308、再構成ユニット310、フィルタユニット312、およびDPB314のいずれかまたはすべては、1つもしくは複数のプロセッサにおいてまたは処理回路において実装され得る。たとえば、ビデオデコーダ300のユニットは、ハードウェア回路の一部としての1つもしくは複数の回路もしくは論理要素として、またはプロセッサ、ASIC、もしくはFPGAの一部として実装され得る。さらに、ビデオデコーダ300は、これらおよび他の機能を実行するための追加または代替のプロセッサまたは処理回路を含み得る。 In the example of FIG. 6, the video decoder 300 includes a coded picture buffer (CPB) memory 320, an entropy decoding unit 302, a prediction processing unit 304, an inverse quantization unit 306, an inverse transform processing unit 308, a reconstruction unit 310, and a filter unit. 312, and a decoded picture buffer (DPB) 314. Any or all of CPB memory 320, entropy decoding unit 302, prediction processing unit 304, dequantization unit 306, inverse transform processing unit 308, reconstruction unit 310, filter unit 312, and DPB 314 may be implemented by one or more processors. or in processing circuitry. For example, a unit of video decoder 300 may be implemented as one or more circuits or logic elements as part of a hardware circuit, or as part of a processor, ASIC, or FPGA. Additionally, video decoder 300 may include additional or alternative processors or processing circuits to perform these and other functions.

予測処理ユニット304は、動き補償ユニット316およびイントラ予測ユニット318を含む。予測処理ユニット304は、他の予測モードに従って予測を実行するための追加のユニットを含み得る。例として、予測処理ユニット304は、パレットユニット、(動き補償ユニット316の一部を形成し得る)イントラブロックコピーユニット、アフィンユニット、線形モデル(LM)ユニットなどを含み得る。他の例では、ビデオデコーダ300は、より多数の、より少数の、または異なる機能構成要素を含み得る。 Prediction processing unit 304 includes a motion compensation unit 316 and an intra prediction unit 318. Prediction processing unit 304 may include additional units for performing predictions according to other prediction modes. By way of example, prediction processing unit 304 may include a palette unit, an intra block copy unit (which may form part of motion compensation unit 316), an affine unit, a linear model (LM) unit, etc. In other examples, video decoder 300 may include more, fewer, or different functional components.

CPBメモリ320は、ビデオデコーダ300の構成要素によって復号されるべき、符号化されたビデオビットストリームなどのビデオデータを記憶し得る。CPBメモリ320に記憶されたビデオデータは、たとえば、コンピュータ可読媒体110(図1)から取得され得る。CPBメモリ320は、符号化されたビデオビットストリームからの符号化されたビデオデータ(たとえば、シンタックス要素)を記憶するCPBを含み得る。また、CPBメモリ320は、ビデオデコーダ300の様々なユニットからの出力を表す一時的なデータなどの、コーディングされたピクチャのシンタックス要素以外のビデオデータを記憶し得る。DPB314は、一般に、符号化されたビデオビットストリームの後続のデータまたはピクチャを復号するときにビデオデコーダ300が参照ビデオデータとして出力および/または使用し得る、復号されたピクチャを記憶する。CPBメモリ320およびDPB314は、SDRAMを含むDRAM、MRAM、RRAM、または他のタイプのメモリデバイスなどの、様々なメモリデバイスのいずれかによって形成され得る。CPUメモリ320およびDPB314は、同じメモリデバイスまたは別個のメモリデバイスによって提供され得る。様々な例では、CPBメモリ320は、ビデオデコーダ300の他の構成要素とともにオンチップであってもよく、またはそれらの構成要素に対してオフチップであってもよい。 CPB memory 320 may store video data, such as an encoded video bitstream, to be decoded by components of video decoder 300. Video data stored in CPB memory 320 may be obtained from computer-readable medium 110 (FIG. 1), for example. CPB memory 320 may include a CPB that stores encoded video data (eg, syntax elements) from an encoded video bitstream. CPB memory 320 may also store video data other than coded picture syntax elements, such as temporal data representing output from various units of video decoder 300. DPB 314 generally stores decoded pictures that video decoder 300 may output and/or use as reference video data when decoding subsequent data or pictures of the encoded video bitstream. CPB memory 320 and DPB 314 may be formed by any of a variety of memory devices, such as DRAM, including SDRAM, MRAM, RRAM, or other types of memory devices. CPU memory 320 and DPB 314 may be provided by the same memory device or separate memory devices. In various examples, CPB memory 320 may be on-chip with other components of video decoder 300 or off-chip with respect to those components.

追加または代替として、いくつかの例では、ビデオデコーダ300は、メモリ120(図1)からコーディングされたビデオデータを取り出し得る。すなわち、メモリ120は、CPBメモリ320に関して上記で説明したようなデータを記憶し得る。同様に、メモリ120は、ビデオデコーダ300の機能の一部または全部がビデオデコーダ300の処理回路によって実行されるべきソフトウェアにおいて実装されるとき、ビデオデコーダ300によって実行されるべき命令を記憶し得る。 Additionally or alternatively, in some examples, video decoder 300 may retrieve coded video data from memory 120 (FIG. 1). That is, memory 120 may store data as described above with respect to CPB memory 320. Similarly, memory 120 may store instructions to be executed by video decoder 300 when some or all of the functionality of video decoder 300 is implemented in software to be executed by processing circuitry of video decoder 300.

図6に示す様々なユニットは、ビデオデコーダ300によって実行される動作を理解することを助けるために図示されている。ユニットは、固定機能回路、プログラマブル回路、またはそれらの組合せとして実装され得る。図5と同様に、固定機能回路は、特定の機能を提供する回路を指し、実行され得る動作に対してプリセットされる。プログラマブル回路は、様々なタスクを実行するようにプログラムされ得る回路を指し、実行され得る動作において柔軟な機能を提供する。たとえば、プログラマブル回路は、ソフトウェアまたはファームウェアの命令によって定義された方法でプログラマブル回路を動作させるソフトウェアまたはファームウェアを実行し得る。固定機能回路は(たとえば、パラメータを受信するまたはパラメータを出力するための)ソフトウェア命令を実行し得るが、固定機能回路が実行する動作のタイプは概して不変である。いくつかの例では、ユニットのうちの1つまたは複数は異なる回路ブロック(固定機能またはプログラマブル)であってもよく、いくつかの例では、ユニットのうちの1つまたは複数は集積回路であってもよい。 The various units shown in FIG. 6 are illustrated to aid in understanding the operations performed by video decoder 300. A unit may be implemented as a fixed function circuit, a programmable circuit, or a combination thereof. Similar to FIG. 5, fixed function circuits refer to circuits that provide a specific function and are preset for operations that may be performed. Programmable circuit refers to a circuit that can be programmed to perform a variety of tasks, providing flexibility in the operations that can be performed. For example, a programmable circuit may execute software or firmware that causes the programmable circuit to operate in a manner defined by the software or firmware instructions. Although fixed function circuits may execute software instructions (eg, to receive parameters or output parameters), the types of operations that fixed function circuits perform generally remain unchanged. In some examples, one or more of the units may be different circuit blocks (fixed function or programmable), and in some examples, one or more of the units may be an integrated circuit. Good too.

ビデオデコーダ300は、ALU、EFU、デジタル回路、アナログ回路、および/またはプログラマブル回路から形成されたプログラマブルコアを含み得る。ビデオデコーダ300の動作がプログラマブル回路上で実行されるソフトウェアによって実行される例では、オンチップメモリまたはオフチップメモリが、ビデオデコーダ300が受信および実行するソフトウェアの命令(たとえば、オブジェクトコード)を記憶し得る。 Video decoder 300 may include a programmable core formed from ALUs, EFUs, digital circuits, analog circuits, and/or programmable circuits. In examples where the operations of video decoder 300 are performed by software running on programmable circuitry, on-chip or off-chip memory stores software instructions (e.g., object code) that video decoder 300 receives and executes. obtain.

エントロピー復号ユニット302は、CPBから符号化されたビデオデータを受信し、ビデオデータをエントロピー復号して、シンタックス要素を再生し得る。予測処理ユニット304、逆量子化ユニット306、逆変換処理ユニット308、再構成ユニット310、およびフィルタユニット312は、ビットストリームから抽出されたシンタックス要素に基づいて、復号されたビデオデータを生成し得る。 Entropy decoding unit 302 may receive encoded video data from the CPB and entropy decode the video data to reproduce syntax elements. Prediction processing unit 304, inverse quantization unit 306, inverse transform processing unit 308, reconstruction unit 310, and filter unit 312 may generate decoded video data based on syntax elements extracted from the bitstream. .

一般に、ビデオデコーダ300は、ブロックごとにピクチャを再構成する。ビデオデコーダ300は、各ブロックに対して個別に再構成動作を実行し得る(ここで、現在再構成されている、すなわち、復号されているブロックは「現在ブロック」と呼ばれることがある)。 Generally, video decoder 300 reconstructs pictures block by block. Video decoder 300 may perform a reconstruction operation on each block individually (where the block currently being reconstructed, or decoded, may be referred to as a "current block").

エントロピー復号ユニット302は、量子化された変換係数ブロックの量子化された変換係数、ならびに量子化パラメータ(QP)および/または変換モード指示などの変換情報を定義するシンタックス要素をエントロピー復号し得る。逆量子化ユニット306は、量子化の程度と、同様に、逆量子化ユニット306が適用すべき逆量子化の程度とを決定するために、量子化された変換係数ブロックに関連付けられたQPを使用し得る。逆量子化ユニット306は、たとえば、量子化された変換係数を逆量子化するために、ビット単位の左シフト演算を実行し得る。逆量子化ユニット306は、それによって、変換係数を含む変換係数ブロックを形成し得る。 Entropy decoding unit 302 may entropy decode the quantized transform coefficients of the quantized transform coefficient block as well as syntax elements that define transform information such as quantization parameters (QPs) and/or transform mode indications. Dequantization unit 306 determines the degree of quantization and, similarly, the QP associated with the quantized transform coefficient block to determine the degree of dequantization that dequantization unit 306 should apply. Can be used. Dequantization unit 306 may, for example, perform a bitwise left shift operation to dequantize the quantized transform coefficients. Inverse quantization unit 306 may thereby form a transform coefficient block that includes transform coefficients.

逆量子化ユニット306が変換係数ブロックを形成した後、逆変換処理ユニット308は、現在ブロックに関連付けられた残差ブロックを生成するために、1つまたは複数の逆変換を変換係数ブロックに適用し得る。たとえば、逆変換処理ユニット308は、逆DCT、逆整数変換、逆カルーネンレーベ変換(KLT)、逆回転変換、逆方向変換、または別の逆変換を変換係数ブロックに適用し得る。 After inverse quantization unit 306 forms the transform coefficient block, inverse transform processing unit 308 applies one or more inverse transforms to the transform coefficient block to generate a residual block associated with the current block. obtain. For example, inverse transform processing unit 308 may apply an inverse DCT, an inverse integer transform, an inverse Karhunen-Loeve transform (KLT), an inverse rotation transform, an inverse transform, or another inverse transform to the block of transform coefficients.

さらに、予測処理ユニット304は、エントロピー復号ユニット302によってエントロピー復号された予測情報シンタックス要素に従って予測ブロックを生成する。たとえば、現在ブロックがインター予測されることを予測情報シンタックス要素が示す場合、動き補償ユニット316は予測ブロックを生成し得る。この場合、予測情報シンタックス要素は、そこから参照ブロックを取り出すべきDPB314中の参照ピクチャ、ならびに現在のピクチャ中の現在ブロックの場所に対する参照ピクチャ中の参照ブロックの場所を識別する動きベクトルを示し得る。動き補償ユニット316は、一般に、動き補償ユニット224(図5)に関して説明した方法と実質的に同様の方法でインター予測プロセスを実行し得る。 Further, the prediction processing unit 304 generates a prediction block according to the prediction information syntax elements entropy decoded by the entropy decoding unit 302. For example, motion compensation unit 316 may generate a predictive block if the prediction information syntax element indicates that the current block is inter-predicted. In this case, the prediction information syntax element may indicate the reference picture in the DPB 314 from which the reference block is to be retrieved, as well as a motion vector that identifies the location of the reference block in the reference picture relative to the location of the current block in the current picture. . Motion compensation unit 316 may generally perform the inter-prediction process in a manner substantially similar to that described with respect to motion compensation unit 224 (FIG. 5).

別の例として、現在ブロックがイントラ予測されることを予測情報シンタックス要素が示す場合、イントラ予測ユニット318は、予測情報シンタックス要素によって示されたイントラ予測モードに従って予測ブロックを生成し得る。やはり、イントラ予測ユニット318は、一般に、イントラ予測ユニット226(図5)に関して説明した方法と実質的に同様の方法でイントラ予測プロセスを実行し得る。イントラ予測ユニット318は、DPB314から現在ブロックに対する隣接サンプルのデータを取り出し得る。 As another example, if the prediction information syntax element indicates that the current block is intra-predicted, intra prediction unit 318 may generate the prediction block according to the intra prediction mode indicated by the prediction information syntax element. Again, intra prediction unit 318 may generally perform an intra prediction process in a manner substantially similar to that described with respect to intra prediction unit 226 (FIG. 5). Intra prediction unit 318 may retrieve data for adjacent samples for the current block from DPB 314 .

上記で説明した技法によれば、イントラ予測ユニット318は、N個のエントリを含む総最確モードリストを構築することであって、総最確モードリストのN個のエントリがイントラ予測モードであり、平面モードが総最確モードリストの中の1番目のエントリである、構築することと、総最確モードリストの中の最初のNp個のエントリから1次最確モードリストを構築することであって、NpがN未満である、構築することと、総最確モードリストの中の残り(N-Np個)のエントリから2次最確モードリストを構築することと、1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定することと、ビデオデータの復号されたブロックを生成するために、現在のイントラ予測モードを使用してビデオデータの現在ブロックを復号することとを行うように構成され得る。 According to the techniques described above, intra prediction unit 318 constructs a total most probable mode list including N entries, the N entries of the total most probable mode list being intra prediction modes. , where the planar mode is the first entry in the total most probable mode list, and by constructing a first-order most probable mode list from the first Np entries in the total most probable mode list. and Np is less than N, constructing a quadratic most probable mode list from the remaining (N-Np) entries in the total most probable mode list, and Determining the current intra-prediction mode for the current block of video data using the list or quadratic most probable mode list and selecting the current intra-prediction mode to generate the decoded block of video data. decoding the current block of video data using the video data.

再構成ユニット310は、予測ブロックおよび残差ブロックを使用して現在ブロックを再構成し得る。たとえば、再構成ユニット310は、残差ブロックのサンプルを予測ブロックの対応するサンプルに加えて、現在ブロックを再構成し得る。 Reconstruction unit 310 may reconstruct the current block using the predictive block and the residual block. For example, reconstruction unit 310 may add samples of the residual block to corresponding samples of the predictive block to reconstruct the current block.

フィルタユニット312は、再構成されたブロックに対して1つまたは複数のフィルタ動作を実行し得る。たとえば、フィルタユニット312は、再構成されたブロックの端部に沿ってブロッキネスアーティファクトを低減するためにデブロッキング動作を実行し得る。フィルタユニット312の動作は、必ずしもすべての例において実行されるとは限らない。 Filter unit 312 may perform one or more filter operations on the reconstructed blocks. For example, filter unit 312 may perform a deblocking operation to reduce blockiness artifacts along the edges of the reconstructed block. The operations of filter unit 312 are not necessarily performed in all instances.

ビデオデコーダ300は、再構成されたブロックをDPB314に記憶し得る。たとえば、フィルタユニット312の動作が実行されない例では、再構成ユニット310が再構成されたブロックをDPB314に記憶し得る。フィルタユニット312の動作が実行される例では、フィルタユニット312が精錬されフィルタ処理され再構成されたブロックをDPB314に記憶し得る。上記で説明したように、DPB314は、イントラ予測のための現在のピクチャおよび後続の動き補償のための以前に復号されたピクチャのサンプルなどの参照情報を予測処理ユニット304に提供し得る。さらに、ビデオデコーダ300は、図1のディスプレイデバイス118などのディスプレイデバイス上に後で提示するために、DPB314からの復号されたピクチャ(たとえば、復号されたビデオ)を出力し得る。 Video decoder 300 may store the reconstructed blocks in DPB 314. For example, in instances where the operations of filter unit 312 are not performed, reconstruction unit 310 may store reconstructed blocks in DPB 314. In examples where the operations of filter unit 312 are performed, filter unit 312 may store refined, filtered, and reconstructed blocks in DPB 314 . As explained above, DPB 314 may provide reference information to prediction processing unit 304, such as samples of the current picture for intra prediction and previously decoded pictures for subsequent motion compensation. Additionally, video decoder 300 may output decoded pictures (eg, decoded video) from DPB 314 for later presentation on a display device, such as display device 118 of FIG. 1.

このように、ビデオデコーダ300は、ビデオデータを記憶するように構成されたメモリと、回路において実装され、N個のエントリを含む総最確モードリストを構築することであって、総最確モードリストのN個のエントリがイントラ予測モードであり、平面モードが総最確モードリストの中の1番目のエントリである、構築することと、総最確モードリストの中の最初のNp個のエントリから1次最確モードリストを構築することであって、NpがN未満である、構築することと、総最確モードリストの中の残り(N-Np個)のエントリから2次最確モードリストを構築することと、1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定することと、ビデオデータの復号されたブロックを生成するために、現在のイントラ予測モードを使用してビデオデータの現在ブロックを復号することとを行うように構成された1つまたは複数の処理ユニットとを含むビデオ復号デバイスの一例を表す。 In this way, video decoder 300 is implemented in circuitry and a memory configured to store video data, the total most probable mode list comprising N entries, the total most probable mode constructing and the first Np entries in the total most probable mode list, where the N entries of the list are intra-prediction modes and the planar mode is the first entry in the total most probable mode list constructing a first-order most probable mode list from the remaining (N-Np) entries in the total most probable mode list, with Np less than N; determining a current intra-prediction mode for a current block of video data using a first-order most probable mode list or a second-order most probable mode list; and determining a current intra-prediction mode for a current block of video data; Represents an example of a video decoding device that includes one or more processing units configured to: decode a current block of video data using a current intra prediction mode to generate a current block of video data.

図7は、本開示の技法による、現在ブロックを符号化するための例示的な方法を示すフローチャートである。現在ブロックは現在のCUを含み得る。ビデオエンコーダ200(図1および図5)に関して説明するが、他のデバイスが図7の方法と同様の方法を実行するように構成され得ることを理解されたい。 FIG. 7 is a flowchart illustrating an example method for encoding a current block in accordance with the techniques of this disclosure. The current block may contain the current CU. Although described with respect to video encoder 200 (FIGS. 1 and 5), it should be understood that other devices may be configured to perform a method similar to that of FIG.

この例では、ビデオエンコーダ200は最初に、現在ブロックを予測する(350)。たとえば、ビデオエンコーダ200は、現在ブロックのための予測ブロックを形成し得る。次いで、ビデオエンコーダ200は、現在ブロックのための残差ブロックを計算し得る(352)。残差ブロックを計算するために、ビデオエンコーダ200は、元の符号化されていないブロックと現在ブロックのための予測ブロックとの間の差分を計算し得る。次いで、ビデオエンコーダ200は、残差ブロックを変換し、残差ブロックの変換係数を量子化し得る(354)。次に、ビデオエンコーダ200は、残差ブロックの量子化された変換係数を走査し得る(356)。走査の間、または走査に続いて、ビデオエンコーダ200は、変換係数をエントロピー符号化し得る(358)。たとえば、ビデオエンコーダ200は、CAVLCまたはCABACを使用して、変換係数を符号化し得る。次いで、ビデオエンコーダ200は、ブロックのエントロピー符号化されたデータを出力し得る(360)。 In this example, video encoder 200 first predicts the current block (350). For example, video encoder 200 may form a predictive block for a current block. Video encoder 200 may then calculate a residual block for the current block (352). To calculate the residual block, video encoder 200 may calculate the difference between the original unencoded block and the predictive block for the current block. Video encoder 200 may then transform the residual block and quantize the transform coefficients of the residual block (354). Video encoder 200 may then scan the quantized transform coefficients of the residual block (356). During or following scanning, video encoder 200 may entropy encode the transform coefficients (358). For example, video encoder 200 may encode transform coefficients using CAVLC or CABAC. Video encoder 200 may then output the block of entropy encoded data (360).

図8は、本開示の技法による、ビデオデータの現在ブロックを復号するための例示的な方法を示すフローチャートである。現在ブロックは現在のCUを含み得る。ビデオデコーダ300(図1および図6)に関して説明するが、他のデバイスが図8の方法と同様の方法を実行するように構成され得ることを理解されたい。 FIG. 8 is a flowchart illustrating an example method for decoding a current block of video data in accordance with the techniques of this disclosure. The current block may contain the current CU. Although described with respect to video decoder 300 (FIGS. 1 and 6), it should be understood that other devices may be configured to perform a method similar to that of FIG.

ビデオデコーダ300は、エントロピー符号化された予測情報および現在ブロックに対応する残差ブロックの変換係数のエントロピー符号化されたデータなどの、現在ブロックのためのエントロピー符号化されたデータを受信し得る(370)。ビデオデコーダ300は、現在ブロックのための予測情報を決定するために、および残差ブロックの変換係数を再生するために、エントロピー符号化されたデータをエントロピー復号し得る(372)。ビデオデコーダ300は、現在ブロックのための予測ブロックを計算するために、たとえば、現在ブロックのための予測情報によって示されるようなイントラ予測モードまたはインター予測モードを使用して、現在ブロックを予測し得る(374)。次いで、ビデオデコーダ300は、量子化された変換係数のブロックを作成するために、再生された変換係数を逆走査し得る(376)。次いで、ビデオデコーダ300は、変換係数を逆量子化し、逆変換を変換係数に適用して、残差ブロックを生成し得る(378)。ビデオデコーダ300は、予測ブロックおよび残差ブロックを合成することによって、現在ブロックを最終的に復号し得る(380)。 Video decoder 300 may receive entropy encoded data for the current block, such as entropy encoded prediction information and entropy encoded data of transform coefficients of a residual block corresponding to the current block ( 370). Video decoder 300 may entropy decode the entropy encoded data to determine prediction information for the current block and to recover transform coefficients for the residual block (372). Video decoder 300 may predict the current block using, for example, an intra-prediction mode or an inter-prediction mode as indicated by the prediction information for the current block to calculate a prediction block for the current block. (374). Video decoder 300 may then backscan the reconstructed transform coefficients to create a block of quantized transform coefficients (376). Video decoder 300 may then inverse quantize the transform coefficients and apply an inverse transform to the transform coefficients to generate a residual block (378). Video decoder 300 may finally decode the current block by combining the predictive block and the residual block (380).

図9は、本開示の技法による、現在ブロックを符号化するための別の例示的な方法を示すフローチャートである。図9の技法は、図5のイントラ予測ユニット226を含む、ビデオエンコーダ200の1つまたは複数の構造ユニットによって実行され得る。 FIG. 9 is a flowchart illustrating another example method for encoding a current block in accordance with the techniques of this disclosure. The techniques of FIG. 9 may be performed by one or more structural units of video encoder 200, including intra prediction unit 226 of FIG.

本開示の一例では、ビデオエンコーダ200は、イントラ予測を使用してビデオデータの現在ブロックを符号化するように構成される。ビデオエンコーダ200は、N個のエントリを含む総最確モードリストを構築することであって、総最確モードリストのN個のエントリがイントラ予測モードであり、平面モードが総最確モードリストの中の1番目のエントリである、構築すること(500)を行うように構成され得る。ビデオエンコーダ200は、総最確モードリストの中の最初のNp個のエントリから1次最確モードリストを構築することであって、NpがN未満である、構築すること(502)と、総最確モードリストの中の残り(N-Np個)のエントリから2次最確モードリストを構築すること(504)とをさらに行い得る。ビデオエンコーダ200は、1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定すること(506)と、ビデオデータの符号化されたブロックを生成するために、現在のイントラ予測モードを使用してビデオデータの現在ブロックを符号化すること(508)とをさらに行い得る。一例では、Nが22であり、Npが6である。 In one example of this disclosure, video encoder 200 is configured to encode a current block of video data using intra prediction. The video encoder 200 constructs a total most probable mode list including N entries, where the N entries of the total most probable mode list are intra prediction modes, and the planar modes are of the total most probable mode list. may be configured to perform constructing (500), which is the first entry in . Video encoder 200 comprises constructing (502) a first order most probable mode list from the first Np entries in the total most probable mode list, Np being less than N; The method may further include constructing (504) a quadratic most probable mode list from the remaining (N-Np) entries in the most probable mode list. Video encoder 200 determines (506) a current intra-prediction mode for a current block of video data using a first-order most probable mode list or a second-order most likely mode list; The method may further include encoding (508) the current block of video data using the current intra prediction mode to generate the predicted block. In one example, N is 22 and Np is 6.

本開示の一例では、ビデオエンコーダ200は、1次最確モードリストまたは2次最確モードリストへのインデックスを符号化することであって、インデックスが、1次最確モードリストまたは2次最確モードリストの中の非平面イントラ予測モードを示す、符号化することを行うように構成され得る。 In one example of the present disclosure, video encoder 200 encodes an index to a first-order most probable mode list or a second-order most probable mode list, the index being a first-order most probable mode list or a second-order most probable mode list. The method may be configured to perform encoding indicating a non-planar intra prediction mode in the mode list.

本開示の別の例では、1次最確モードリストまたは2次最確モードリストへのインデックスを符号化するために、ビデオエンコーダ200は、現在ブロック用に使用されるコーディングツールに基づいてインデックスの第1のビンをエントロピー符号化するためのコンテキストを決定することと、コンテキストを使用してインデックスの第1のビンをエントロピー符号化することとを行うように構成され得る。一例では、コーディングツールは、通常イントラ予測モード、イントラサブパーティションモード、または複数参照ラインモードのうちの1つである。 In another example of the present disclosure, to encode an index to a first-order most probable mode list or a second-order most probable mode list, video encoder 200 encodes the index based on the coding tool currently used for the block. The method may be configured to determine a context for entropy encoding a first bin and entropy encoding a first bin of the index using the context. In one example, the coding tool is in one of a normal intra prediction mode, an intra subpartition mode, or a multiple reference line mode.

別の例では、総最確モードリストを構築するために、ビデオエンコーダ200は、ビデオデータの現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを総最確モードリストに追加することと、それぞれの隣接ブロックからのそれぞれのイントラ予測モードからオフセットされた複数のイントラ予測モードを総最確モードリストに追加することとを行うようにさらに構成される。ビデオエンコーダ200は、それぞれのイントラ予測モードが利用可能であり、総最確モードリストにまだ追加されていないことに基づいて、ビデオデータの現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを総最確モードリストに追加し得る。 In another example, to construct the total most probable mode list, video encoder 200 adds each intra-predicted mode from each neighboring block of the current block of video data to the total most probable mode list; and adding a plurality of intra prediction modes offset from respective intra prediction modes from respective neighboring blocks to the total most probable mode list. Video encoder 200 selects each intra-prediction mode from each neighboring block of the current block of video data based on whether the respective intra-prediction mode is available and has not yet been added to the total most probable mode list. Can be added to the total most probable mode list.

図10は、本開示の技法による、現在ブロックを復号するための別の例示的な方法を示すフローチャートである。図10の技法は、図6のイントラ予測ユニット318を含む、ビデオデコーダ300の1つまたは複数の構造ユニットによって実行され得る。 FIG. 10 is a flowchart illustrating another example method for decoding a current block in accordance with the techniques of this disclosure. The techniques of FIG. 10 may be performed by one or more structural units of video decoder 300, including intra prediction unit 318 of FIG.

本開示の一例では、ビデオデコーダ300は、イントラ予測を使用してビデオデータの現在ブロックを復号するように構成され得る。ビデオデコーダ300は、N個のエントリを含む総最確モードリストを構築することであって、総最確モードリストのN個のエントリがイントラ予測モードであり、平面モードが総最確モードリストの中の1番目のエントリである、構築すること(600)を行うように構成され得る。ビデオデコーダ300は、総最確モードリストの中の最初のNp個のエントリから1次最確モードリストを構築することであって、NpがN未満である、構築すること(602)と、総最確モードリストの中の残り(N-Np個)のエントリから2次最確モードリストを構築すること(604)とをさらに行い得る。次いで、ビデオデコーダ300は、1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定すること(606)と、ビデオデータの復号されたブロックを生成するために、現在のイントラ予測モードを使用してビデオデータの現在ブロックを復号すること(608)とを行い得る。一例では、Nが22であり、Npが6である。 In one example of this disclosure, video decoder 300 may be configured to decode a current block of video data using intra prediction. The video decoder 300 constructs a total most probable mode list including N entries, wherein N entries of the total most probable mode list are intra prediction modes and planar modes are of the total most probable mode list. may be configured to perform constructing (600). Video decoder 300 comprises constructing (602) a first order most probable mode list from the first Np entries in the total most probable mode list, Np being less than N; The method may further include constructing (604) a quadratic most probable mode list from the remaining (N-Np) entries in the most probable mode list. Video decoder 300 then determines a current intra prediction mode for the current block of video data using the first order most probable mode list or the second order most probable mode list (606) and decodes the video data. The current block of video data may be decoded (608) using the current intra prediction mode to generate a predicted block. In one example, N is 22 and Np is 6.

一例では、現在のイントラ予測モードを決定するために、ビデオデコーダ300は、1次最確モードリストまたは2次最確モードリストへのインデックスを復号することであって、インデックスが、1次最確モードリストまたは2次最確モードリストの中の非平面イントラ予測モードを示す、復号することを行うようにさらに構成され得る。ビデオデコーダ300は、インデックスに基づいてビデオデータの現在ブロックのための現在のイントラ予測モードを決定し得る。 In one example, to determine the current intra-prediction mode, video decoder 300 decodes an index into a first-order most probable mode list or a second-order most probable mode list, where the index The method may be further configured to indicate and decode a non-planar intra-prediction mode in the mode list or the quadratic most probable mode list. Video decoder 300 may determine a current intra prediction mode for a current block of video data based on the index.

さらなる例では、1次最確モードリストまたは2次最確モードリストへのインデックスを復号するために、ビデオデコーダ300は、現在ブロック用に使用されるコーディングツールに基づいてインデックスの第1のビンをエントロピー復号するためのコンテキストを決定することと、コンテキストを使用してインデックスの第1のビンをエントロピー復号することとをさらに行い得る。一例では、コーディングツールは、通常イントラ予測モード、イントラサブパーティションモード、または複数参照ラインモードのうちの1つである。 In a further example, to decode an index into a first-order most probable mode list or a second-order most probable mode list, video decoder 300 determines the first bin of the index based on the coding tool used for the current block. The method may further include determining a context for entropy decoding and using the context to entropy decode the first bin of the index. In one example, the coding tool is in one of a normal intra prediction mode, an intra subpartition mode, or a multiple reference line mode.

本開示の別の例では、総最確モードリストを構築するために、ビデオデコーダ300は、ビデオデータの現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを総最確モードリストに追加することと、それぞれの隣接ブロックからのそれぞれのイントラ予測モードからオフセットされた複数のイントラ予測モードを総最確モードリストに追加することとを行うように構成され得る。一例では、ビデオデコーダ300は、それぞれのイントラ予測モードが利用可能であり、総最確モードリストにまだ追加されていないことに基づいて、ビデオデータの現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを総最確モードリストに追加し得る。 In another example of the present disclosure, to construct the total most probable mode list, video decoder 300 adds each intra-prediction mode from each neighboring block of the current block of video data to the total most probable mode list. and adding a plurality of intra prediction modes offset from respective intra prediction modes from respective neighboring blocks to the total most probable mode list. In one example, video decoder 300 determines whether the respective intra prediction modes from respective neighboring blocks of the current block of video data are available based on whether the respective intra prediction modes are available and have not yet been added to the total most probable mode list. Predictive modes may be added to the total most probable mode list.

他の例では、1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定するために、ビデオデコーダ300は、1次最確モードリストまたは2次最確モードリストのいずれかからの現在の最確モードリストを示すシンタックス要素を復号することと、現在の最確モードリストへのインデックスを復号することと、現在の最確モードリストへのインデックスから現在のイントラ予測モードを決定することとを行うように構成され得る。 In other examples, to determine the current intra-prediction mode for the current block of video data using a first-order most probable mode list or a second-order most probable mode list, video decoder 300 uses a first-order most likely decoding a syntax element indicating a current most probable mode list from either a mode list or a quadratic most probable mode list; decoding an index into the current most probable mode list; and determining a current intra-prediction mode from the index into the mode list.

本開示の追加の態様が以下で説明される。 Additional aspects of the disclosure are described below.

態様1A - ビデオデータをコーディングする方法であって、N個のエントリを含む総最確モードリストを構築するステップであって、総最確モードリストのN個のエントリがイントラ予測モードである、ステップと、総最確モードリストの中の最初のNp個のエントリから1次最確モードリストを構築するステップであって、NpがN未満である、ステップと、総最確モードリストの中の残り(N-Np個)のエントリから2次最確モードリストを構築するステップと、1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのためのイントラ予測モードを決定するステップとを含む方法。 Aspect 1A - A method of coding video data, the step of constructing a total most probable mode list comprising N entries, the N entries of the total most probable mode list being intra prediction modes. and the step of constructing a first-order most probable mode list from the first Np entries in the total most probable mode list, where Np is less than N; and the remaining in the total most probable mode list. constructing a second-order most probable mode list from (N-Np) entries; and determining an intra-prediction mode for the current block of video data using the first-order most probable mode list or the second-order most probable mode list. and determining the method.

態様2A - Nが22であり、Npが6である、態様1Aの方法。 Embodiment 2A - The method of Embodiment 1A, wherein N is 22 and Np is 6.

態様3A - 総最確モードリストを構築するステップが、平面モードを総最確モードリストの中の1番目のエントリとして追加するステップと、ビデオデータの現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを総最確モードリストに追加するステップと、それぞれの隣接ブロックからのそれぞれのイントラ予測モードからオフセットされたイントラ予測モードを総最確モードリストに追加するステップとを含む、態様1Aおよび2Aのいずれかの方法。 Aspect 3A - The step of constructing the total most probable mode list comprises adding a planar mode as a first entry in the total most probable mode list and adding each intra from each neighboring block of the current block of video data. Aspects 1A and 2A, comprising adding a prediction mode to a total most probable mode list; and adding an intra prediction mode offset from each intra prediction mode from each neighboring block to a total most probable mode list. Either way.

態様4A - ビデオデータの現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを総最確モードリストに追加するステップが、それぞれのイントラ予測モードが利用可能であり、総最確モードリストにまだ追加されていない場合、ビデオデータの現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを総最確モードリストに追加するステップを含む、態様3Aの方法。 Aspect 4A - Adding each intra prediction mode from each neighboring block of the current block of video data to the total most probable mode list includes the step of adding each intra prediction mode from each adjacent block of the current block of video data to the total most probable mode list if each intra prediction mode is available and not yet added to the total most probable mode list. The method of aspect 3A, comprising adding each intra prediction mode from each neighboring block of the current block of video data to the total most probable mode list, if not added.

態様5A - 現在ブロック用に使用されるコーディングツールに基づいて1次最確モードリストの非平面モードを示すインデックスをコーディングするためのコンテキストを決定するステップをさらに含む、態様1A~4Aのいずれかの方法。 Aspect 5A - The method of any of Aspects 1A-4A, further comprising determining a context for coding an index indicating a non-planar mode of the first-order most probable mode list based on a coding tool currently used for the block. Method.

態様6A - コーディングツールが、通常イントラ予測モード、イントラサブパーティションモード、または複数参照ラインモードのうちの1つである、態様5Aの方法。 Aspect 6A - The method of Aspect 5A, wherein the coding tool is in one of a normal intra prediction mode, an intra subpartition mode, or a multiple reference line mode.

態様7A - コーディングするステップが復号するステップを含む、態様1A~6Aのいずれかの方法。 Aspect 7A - The method of any of Aspects 1A-6A, wherein the step of encoding comprises the step of decoding.

態様8A - コーディングするステップが符号化するステップを含む、態様1A~7Aのいずれかの方法。 Aspect 8A - The method of any of Aspects 1A-7A, wherein the step of coding comprises the step of encoding.

態様9A - ビデオデータをコーディングするためのデバイスであって、態様1A~8Aのいずれかの方法を実行するための1つまたは複数の手段を備えるデバイス。 Aspect 9A - A device for coding video data, comprising one or more means for performing the method of any of Aspects 1A to 8A.

態様10A - 1つまたは複数の手段が、回路において実装された1つまたは複数のプロセッサを備える、態様9Aのデバイス。 Aspect 10A - The device of Aspect 9A, wherein the one or more means comprises one or more processors implemented in circuitry.

態様11A - ビデオデータを記憶するためのメモリをさらに備える、態様9Aおよび10Aのいずれかのデバイス。 Aspect 11A - The device of any of Aspects 9A and 10A, further comprising memory for storing video data.

態様12A - 復号されたビデオデータを表示するように構成されたディスプレイをさらに備える、態様9A~11Aのいずれかのデバイス。 Aspect 12A - The device of any of Aspects 9A-11A, further comprising a display configured to display the decoded video data.

態様13A - デバイスが、カメラ、コンピュータ、モバイルデバイス、ブロードキャスト受信機デバイス、またはセットトップボックスのうちの1つまたは複数を備える、態様9A~12Aのいずれかのデバイス。 Aspect 13A - The device of any of Aspects 9A-12A, wherein the device comprises one or more of a camera, a computer, a mobile device, a broadcast receiver device, or a set-top box.

態様14A - デバイスがビデオデコーダを備える、態様9A~13Aのいずれかのデバイス。 Aspect 14A - The device of any of Aspects 9A-13A, wherein the device comprises a video decoder.

態様15A - デバイスがビデオエンコーダを備える、態様9A~14Aのいずれかのデバイス。 Aspect 15A - The device of any of Aspects 9A-14A, wherein the device comprises a video encoder.

態様16A - 実行されると、1つまたは複数のプロセッサに態様1A~8Aのいずれかの方法を実行させる命令を記憶したコンピュータ可読記憶媒体。 Aspect 16A - A computer-readable storage medium having instructions stored thereon that, when executed, cause one or more processors to perform the method of any of Aspects 1A-8A.

態様1B - ビデオデータを復号する方法であって、N個のエントリを含む総最確モードリストを構築するステップであって、総最確モードリストのN個のエントリがイントラ予測モードであり、平面モードが総最確モードリストの中の1番目のエントリである、ステップと、総最確モードリストの中の最初のNp個のエントリから1次最確モードリストを構築するステップであって、NpがN未満である、ステップと、総最確モードリストの中の残り(N-Np個)のエントリから2次最確モードリストを構築するステップと、1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定するステップと、ビデオデータの復号されたブロックを生成するために、現在のイントラ予測モードを使用してビデオデータの現在ブロックを復号するステップとを含む方法。 Aspect 1B - A method of decoding video data, the step of constructing a total most probable mode list comprising N entries, wherein the N entries of the total most probable mode list are intra-prediction modes and the plane the mode is the first entry in the total most probable mode list, and the step of constructing a first order most probable mode list from the first Np entries in the total most probable mode list, wherein Np is less than N, constructing a quadratic most probable mode list from the remaining (N-Np) entries in the total most probable mode list, and constructing a quadratic most probable mode list or a quadratic most probable mode list. determining a current intra-prediction mode for the current block of video data using the mode list; and using the current intra-prediction mode of the video data to generate a decoded block of video data. decoding the current block.

態様2B - 現在のイントラ予測モードを決定するステップが、1次最確モードリストまたは2次最確モードリストへのインデックスを復号するステップであって、インデックスが、1次最確モードリストまたは2次最確モードリストの中の非平面イントラ予測モードを示す、ステップと、インデックスに基づいてビデオデータの現在ブロックのための現在のイントラ予測モードを決定するステップとをさらに含む、態様1Bの方法。 Aspect 2B - The step of determining the current intra-prediction mode is the step of decoding an index into a first-order most probable mode list or a second-order most probable mode list, wherein the index is a first-order most probable mode list or a second-order most probable mode list. The method of aspect 1B, further comprising indicating a non-planar intra prediction mode in the most probable mode list, and determining a current intra prediction mode for a current block of video data based on the index.

態様3B - 1次最確モードリストまたは2次最確モードリストへのインデックスを復号するステップが、現在ブロック用に使用されるコーディングツールに基づいてインデックスの第1のビンをエントロピー復号するためのコンテキストを決定するステップと、コンテキストを使用してインデックスの第1のビンをエントロピー復号するステップとを含む、態様2Bの方法。 Aspect 3B - The context for decoding an index into a first order most probable mode list or a second order most probable mode list is to entropy decode the first bin of the index based on the coding tool currently used for the block. and entropy decoding the first bin of the index using the context.

態様4B - コーディングツールが、通常イントラ予測モード、イントラサブパーティションモード、または複数参照ラインモードのうちの1つである、態様3Bの方法。 Aspect 4B - The method of Aspect 3B, wherein the coding tool is in one of a normal intra prediction mode, an intra subpartition mode, or a multiple reference line mode.

態様5B - Nが22であり、Npが6である、態様1Bの方法。 Embodiment 5B - The method of Embodiment 1B, wherein N is 22 and Np is 6.

態様6B - 総最確モードリストを構築するステップが、ビデオデータの現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを総最確モードリストに追加するステップと、それぞれの隣接ブロックからのそれぞれのイントラ予測モードからオフセットされた複数のイントラ予測モードを総最確モードリストに追加するステップとを含む、態様1Bの方法。 Aspect 6B - The step of constructing the total most probable mode list comprises adding each intra-prediction mode from each adjacent block of the current block of video data to the total most probable mode list, and each intra-prediction mode from each adjacent block of the current block of video data. and adding a plurality of intra prediction modes offset from the intra prediction mode of to the total most probable mode list.

態様7B - ビデオデータの現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを総最確モードリストに追加するステップが、それぞれのイントラ予測モードが利用可能であり、総最確モードリストにまだ追加されていないことに基づいて、ビデオデータの現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを総最確モードリストに追加するステップを含む、態様6Bの方法。 Aspect 7B - Adding each intra-prediction mode from each neighboring block of the current block of video data to the total most probable mode list includes the step of adding each intra-prediction mode from each adjacent block of the current block of video data to the total most probable mode list if each intra-prediction mode is available and not yet The method of aspect 6B, comprising adding each intra prediction mode from each neighboring block of the current block of video data to the total most probable mode list based on not being added.

態様8B - 1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定するステップが、1次最確モードリストまたは2次最確モードリストのいずれかからの現在の最確モードリストを示すシンタックス要素を復号するステップと、現在の最確モードリストへのインデックスを復号するステップと、現在の最確モードリストへのインデックスから現在のイントラ予測モードを決定するステップとを含む、態様1Bの方法。 Aspect 8B - Determining the current intra-prediction mode for the current block of video data using the first-order most probable mode list or the second-order most probable mode list comprises decoding a syntax element indicating a current most probable mode list from one of the mode lists; decoding an index into the current most probable mode list; and decoding an index into the current most probable mode list from the current most probable mode list. and determining an intra-prediction mode of.

態様9B - ビデオデータの復号されたブロックを含むピクチャを表示するステップをさらに含む、態様1Bの方法。 Aspect 9B - The method of Aspect 1B, further comprising displaying a picture that includes the decoded block of video data.

態様10B - ビデオデータを復号するように構成された装置であって、ビデオデータの現在ブロックを記憶するように構成されたメモリと、回路において実装され、メモリと通信している1つまたは複数のプロセッサとを備え、1つまたは複数のプロセッサが、N個のエントリを含む総最確モードリストを構築することであって、総最確モードリストのN個のエントリがイントラ予測モードであり、平面モードが総最確モードリストの中の1番目のエントリである、構築することと、総最確モードリストの中の最初のNp個のエントリから1次最確モードリストを構築することであって、NpがN未満である、構築することと、総最確モードリストの中の残り(N-Np個)のエントリから2次最確モードリストを構築することと、1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定することと、ビデオデータの復号されたブロックを生成するために、現在のイントラ予測モードを使用してビデオデータの現在ブロックを復号することとを行うように構成される、装置。 Aspect 10B - An apparatus configured to decode video data, the apparatus comprising: a memory configured to store a current block of video data; and one or more memory devices implemented in a circuit and in communication with the memory. a processor, the one or more processors constructing a total most probable mode list including N entries, the N entries of the total most probable mode list being intra prediction modes; mode is the first entry in the total most probable mode list, and constructing a first-order most probable mode list from the first Np entries in the total most probable mode list, , Np is less than N, constructing a quadratic most probable mode list from the remaining (N-Np) entries in the total most probable mode list, and constructing a first order most probable mode list or determining a current intra-prediction mode for a current block of video data using a second-order most probable mode list and using the current intra-prediction mode to generate a decoded block of video data; and decoding a current block of video data.

態様11B - 現在のイントラ予測モードを決定するために、1つまたは複数のプロセッサが、1次最確モードリストまたは2次最確モードリストへのインデックスを復号することであって、インデックスが、1次最確モードリストまたは2次最確モードリストの中の非平面イントラ予測モードを示す、復号することと、インデックスに基づいてビデオデータの現在ブロックのための現在のイントラ予測モードを決定することとを行うようにさらに構成される、態様10Bの装置。 Aspect 11B - To determine the current intra-prediction mode, the one or more processors decode an index into a first-order most probable mode list or a second-order most probable mode list, the index being 1 decoding, indicating a non-planar intra prediction mode in a next most probable mode list or a second most probable mode list; and determining a current intra prediction mode for a current block of video data based on the index. The apparatus of embodiment 10B, further configured to perform.

態様12B - 1次最確モードリストまたは2次最確モードリストへのインデックスを復号するために、1つまたは複数のプロセッサが、現在ブロック用に使用されるコーディングツールに基づいてインデックスの第1のビンをエントロピー復号するためのコンテキストを決定することと、コンテキストを使用してインデックスの第1のビンをエントロピー復号することとを行うようにさらに構成される、態様11Bの装置。 Aspect 12B - To decode an index into a first-order most probable mode list or a second-order most probable mode list, the one or more processors determine the first of the indexes based on the coding tool used for the current block. The apparatus of aspect 11B, further configured to determine a context for entropy decoding the bins and entropy decoding a first bin of the index using the context.

態様13B - コーディングツールが、通常イントラ予測モード、イントラサブパーティションモード、または複数参照ラインモードのうちの1つである、態様12Bの装置。 Aspect 13B - The apparatus of Aspect 12B, wherein the coding tool is in one of a normal intra prediction mode, an intra subpartition mode, or a multiple reference line mode.

態様14B - Nが22であり、Npが6である、態様10Bの装置。 Embodiment 14B - The device of Embodiment 10B, wherein N is 22 and Np is 6.

態様15B - 総最確モードリストを構築するために、1つまたは複数のプロセッサが、ビデオデータの現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを総最確モードリストに追加することと、それぞれの隣接ブロックからのそれぞれのイントラ予測モードからオフセットされた複数のイントラ予測モードを総最確モードリストに追加することとを行うようにさらに構成される、態様10Bの装置。 Aspect 15B - To construct a total most probable mode list, the one or more processors add each intra-prediction mode from each neighboring block of the current block of video data to the total most probable mode list; , adding a plurality of intra prediction modes offset from respective intra prediction modes from respective neighboring blocks to the total most probable mode list.

態様16B - ビデオデータの現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを総最確モードリストに追加するために、1つまたは複数のプロセッサが、それぞれのイントラ予測モードが利用可能であり、総最確モードリストにまだ追加されていないことに基づいて、ビデオデータの現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを総最確モードリストに追加するようにさらに構成される、態様15Bの装置。 Aspect 16B - To add respective intra prediction modes from respective neighboring blocks of the current block of video data to a total most likely mode list, the one or more processors determine whether each intra prediction mode is available and , further configured to add each intra-prediction mode from each neighboring block of the current block of video data to the total most probable mode list based on not already added to the total most probable mode list; The apparatus of embodiment 15B.

態様17B - 1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定するために、1つまたは複数のプロセッサが、1次最確モードリストまたは2次最確モードリストのいずれかからの現在の最確モードリストを示すシンタックス要素を復号することと、現在の最確モードリストへのインデックスを復号することと、現在の最確モードリストへのインデックスから現在のイントラ予測モードを決定することとを行うようにさらに構成される、態様10Bの装置。 Aspect 17B - To determine a current intra-prediction mode for a current block of video data using a first-order most probable mode list or a second-order most probable mode list, the one or more processors decoding a syntax element indicating a current most probable mode list from either a definite mode list or a quadratic most probable mode list; decoding an index into the current most probable mode list; The apparatus of aspect 10B, further configured to: determine a current intra prediction mode from an index to a definite mode list.

態様18B - ビデオデータの復号されたブロックを含むピクチャを表示するように構成されたディスプレイをさらに備える、態様10Bの装置。 Aspect 18B - The apparatus of Aspect 10B, further comprising a display configured to display a picture including a decoded block of video data.

態様19B - ビデオデータを復号するように構成された装置であって、N個のエントリを含む総最確モードリストを構築するための手段であって、総最確モードリストのN個のエントリがイントラ予測モードであり、平面モードが総最確モードリストの中の1番目のエントリである、手段と、総最確モードリストの中の最初のNp個のエントリから1次最確モードリストを構築するための手段であって、NpがN未満である、手段と、総最確モードリストの中の残り(N-Np個)のエントリから2次最確モードリストを構築するための手段と、1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定するための手段と、ビデオデータの復号されたブロックを生成するために、現在のイントラ予測モードを使用してビデオデータの現在ブロックを復号するための手段とを備える、装置。 Aspect 19B - An apparatus configured to decode video data, the means for constructing a total most probable mode list including N entries, wherein the N entries of the total most probable mode list are construct a first-order most probable mode list from the first Np entries in the total most probable mode list, where the intra prediction mode is the planar mode and the planar mode is the first entry in the total most probable mode list. means for constructing a quadratic most probable mode list from the remaining (N-Np) entries in the total most probable mode list, wherein Np is less than N; means for determining a current intra prediction mode for a current block of video data using a first order most probable mode list or a second order most probable mode list and for generating a decoded block of video data; , means for decoding a current block of video data using a current intra prediction mode.

態様20B - 現在のイントラ予測モードを決定するための手段が、1次最確モードリストまたは2次最確モードリストへのインデックスを復号するための手段であって、インデックスが、1次最確モードリストまたは2次最確モードリストの中の非平面イントラ予測モードを示す、手段と、インデックスに基づいてビデオデータの現在ブロックのための現在のイントラ予測モードを決定するための手段とをさらに備える、態様19Bの装置。 Aspect 20B - The means for determining the current intra prediction mode is a means for decoding an index into a first order most probable mode list or a second order most probable mode list, the index being a first order most probable mode. further comprising means for indicating a non-planar intra prediction mode in a list or a quadratic most probable mode list; and means for determining a current intra prediction mode for a current block of video data based on the index. The apparatus of embodiment 19B.

態様21B - 1次最確モードリストまたは2次最確モードリストへのインデックスを復号するための手段が、現在ブロック用に使用されるコーディングツールに基づいてインデックスの第1のビンをエントロピー復号するためのコンテキストを決定するための手段と、コンテキストを使用してインデックスの第1のビンをエントロピー復号するための手段とを備える、態様20Bの装置。 Aspect 21B - The means for decoding an index into a first order most probable mode list or a second order most probable mode list entropy decodes a first bin of the index based on the coding tool used for the current block. The apparatus of aspect 20B, comprising: means for determining a context of the index; and means for entropy decoding a first bin of the index using the context.

態様22B - 命令を記憶する非一時的コンピュータ可読記憶媒体であって、命令が、実行されると、ビデオデータを復号するように構成された1つまたは複数のプロセッサに、N個のエントリを含む総最確モードリストを構築することであって、総最確モードリストのN個のエントリがイントラ予測モードであり、平面モードが総最確モードリストの中の1番目のエントリである、構築することと、総最確モードリストの中の最初のNp個のエントリから1次最確モードリストを構築することであって、NpがN未満である、構築することと、総最確モードリストの中の残り(N-Np個)のエントリから2次最確モードリストを構築することと、1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定することと、ビデオデータの復号されたブロックを生成するために、現在のイントラ予測モードを使用してビデオデータの現在ブロックを復号することとを行わせる、非一時的コンピュータ可読記憶媒体。 Aspect 22B - A non-transitory computer readable storage medium storing instructions, the instructions comprising N entries in one or more processors configured to decode video data when executed. constructing a total most probable mode list, the N entries of the total most probable mode list are intra-predicted modes, and the planar mode is the first entry in the total most probable mode list; and constructing a first-order most probable mode list from the first Np entries in the total most probable mode list, where Np is less than N. constructing a second-order most probable mode list from the remaining (N-Np) entries in the current block of video data using the first-order most probable mode list or the second-order most probable mode list. and decoding the current block of video data using the current intra prediction mode to generate a decoded block of video data. Readable storage medium.

態様23B - 現在のイントラ予測モードを決定するために、命令が、1つまたは複数のプロセッサに、1次最確モードリストまたは2次最確モードリストへのインデックスを復号することであって、インデックスが、1次最確モードリストまたは2次最確モードリストの中の非平面イントラ予測モードを示す、復号することと、インデックスに基づいてビデオデータの現在ブロックのための現在のイントラ予測モードを決定することとをさらに行わせる、態様22Bの非一時的コンピュータ可読記憶媒体。 Aspect 23B - To determine the current intra-prediction mode, the instructions cause the one or more processors to decode an index into a first-order most probable mode list or a second-order most probable mode list, the instructions including: Decodes and determines the current intra-prediction mode for the current block of video data based on the index, which indicates the non-planar intra-prediction mode in the first-order most probable mode list or the second-order most probable mode list. Embodiment 22B's non-transitory computer-readable storage medium further comprises:

態様24B - 1次最確モードリストまたは2次最確モードリストへのインデックスを復号するために、命令が、1つまたは複数のプロセッサに、現在ブロック用に使用されるコーディングツールに基づいてインデックスの第1のビンをエントロピー復号するためのコンテキストを決定することと、コンテキストを使用してインデックスの第1のビンをエントロピー復号することとをさらに行わせる、態様23Bの非一時的コンピュータ可読記憶媒体。 Aspect 24B - To decode an index into a first-order most probable mode list or a second-order most probable mode list, an instruction instructs one or more processors to determine the index of the index based on the coding tool currently used for the block. The non-transitory computer-readable storage medium of aspect 23B further causes determining a context for entropy decoding the first bin and using the context to entropy decode the first bin of the index.

態様25B - ビデオデータを符号化するように構成された装置であって、ビデオデータの現在ブロックを記憶するように構成されたメモリと、回路において実装され、メモリと通信している1つまたは複数のプロセッサとを備え、1つまたは複数のプロセッサが、N個のエントリを含む総最確モードリストを構築することであって、総最確モードリストのN個のエントリがイントラ予測モードであり、平面モードが総最確モードリストの中の1番目のエントリである、構築することと、総最確モードリストの中の最初のNp個のエントリから1次最確モードリストを構築することであって、NpがN未満である、構築することと、総最確モードリストの中の残り(N-Np個)のエントリから2次最確モードリストを構築することと、1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定することと、ビデオデータの符号化されたブロックを生成するために、現在のイントラ予測モードを使用してビデオデータの現在ブロックを符号化することとを行うように構成される、装置。 Aspect 25B - An apparatus configured to encode video data, the one or more being implemented in a circuit and in communication with a memory configured to store a current block of video data. and the one or more processors constructing a total most probable mode list including N entries, the N entries of the total most probable mode list being intra prediction modes; The planar mode is the first entry in the total most probable mode list, and constructing the first order most probable mode list from the first Np entries in the total most probable mode list. , Np is less than N, constructing a quadratic most probable mode list from the remaining (N-Np) entries in the total most probable mode list, and constructing a first order most probable mode list. or determining the current intra-prediction mode for the current block of video data using the quadratic most probable mode list and selecting the current intra-prediction mode to generate the encoded block of video data. and encoding a current block of video data using an apparatus.

態様26B - 1つまたは複数のプロセッサが、1次最確モードリストまたは2次最確モードリストへのインデックスを符号化することであって、インデックスが、1次最確モードリストまたは2次最確モードリストの中の非平面イントラ予測モードを示す、符号化することを行うようにさらに構成される、態様25Bの装置。 Aspect 26B - The one or more processors encode an index into a first-order most probable mode list or a second-order most probable mode list, wherein the index The apparatus of aspect 25B, further configured to perform encoding indicating a non-planar intra prediction mode in the mode list.

態様27B - 1次最確モードリストまたは2次最確モードリストへのインデックスを符号化するために、1つまたは複数のプロセッサが、現在ブロック用に使用されるコーディングツールに基づいてインデックスの第1のビンをエントロピー符号化するためのコンテキストを決定することと、コンテキストを使用してインデックスの第1のビンをエントロピー符号化することとを行うようにさらに構成される、態様26Bの装置。 Aspect 27B - To encode an index into a first-order most probable mode list or a second-order most probable mode list, the one or more processors select the first of the indexes based on the coding tool used for the current block. The apparatus of aspect 26B, further configured to: determine a context for entropy encoding a bin of the index; and entropy encode a first bin of the index using the context.

態様28B - コーディングツールが、通常イントラ予測モード、イントラサブパーティションモード、または複数参照ラインモードのうちの1つである、態様27Bの装置。 Aspect 28B - The apparatus of Aspect 27B, wherein the coding tool is in one of a normal intra prediction mode, an intra subpartition mode, or a multiple reference line mode.

態様29B - Nが22であり、Npが6である、態様25Bの装置。 Embodiment 29B - The device of Embodiment 25B, wherein N is 22 and Np is 6.

態様30B - 総最確モードリストを構築するために、1つまたは複数のプロセッサが、ビデオデータの現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを総最確モードリストに追加することと、それぞれの隣接ブロックからのそれぞれのイントラ予測モードからオフセットされた複数のイントラ予測モードを総最確モードリストに追加することとを行うようにさらに構成される、態様25Bの装置。 Aspect 30B - To construct a total most probable mode list, the one or more processors add each intra-prediction mode from each neighboring block of the current block of video data to the total most probable mode list; , adding a plurality of intra prediction modes offset from respective intra prediction modes from respective neighboring blocks to the total most probable mode list.

態様31B - ビデオデータの現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを総最確モードリストに追加するために、1つまたは複数のプロセッサが、それぞれのイントラ予測モードが利用可能であり、総最確モードリストにまだ追加されていないことに基づいて、ビデオデータの現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを総最確モードリストに追加するようにさらに構成される、態様25Bの装置。 Aspect 31B - To add respective intra prediction modes from respective neighboring blocks of the current block of video data to a total most probable mode list, the one or more processors determine whether each intra prediction mode is available and , further configured to add each intra-prediction mode from each neighboring block of the current block of video data to the total most probable mode list based on not already added to the total most probable mode list; The apparatus of embodiment 25B.

態様32B - ビデオデータの現在ブロックを含むピクチャをキャプチャするように構成されたカメラをさらに備える、態様25Bの装置。 Aspect 32B - The apparatus of aspect 25B, further comprising a camera configured to capture a picture including the current block of video data.

態様1C - ビデオデータを復号する方法であって、N個のエントリを含む総最確モードリストを構築するステップであって、総最確モードリストのN個のエントリがイントラ予測モードであり、平面モードが総最確モードリストの中の1番目のエントリである、ステップと、総最確モードリストの中の最初のNp個のエントリから1次最確モードリストを構築するステップであって、NpがN未満である、ステップと、総最確モードリストの中の残り(N-Np個)のエントリから2次最確モードリストを構築するステップと、1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定するステップと、ビデオデータの復号されたブロックを生成するために、現在のイントラ予測モードを使用してビデオデータの現在ブロックを復号するステップとを含む方法。 Aspect 1C - A method of decoding video data, the step of constructing a total most probable mode list comprising N entries, wherein the N entries of the total most probable mode list are intra-prediction modes and the plane the mode is the first entry in the total most probable mode list, and the step of constructing a first order most probable mode list from the first Np entries in the total most probable mode list, wherein Np is less than N, constructing a quadratic most probable mode list from the remaining (N-Np) entries in the total most probable mode list, and constructing a quadratic most probable mode list or a quadratic most probable mode list. determining a current intra-prediction mode for the current block of video data using the mode list; and using the current intra-prediction mode of the video data to generate a decoded block of video data. decoding the current block.

態様2C - 現在のイントラ予測モードを決定するステップが、1次最確モードリストまたは2次最確モードリストへのインデックスを復号するステップであって、インデックスが、1次最確モードリストまたは2次最確モードリストの中の非平面イントラ予測モードを示す、ステップと、インデックスに基づいてビデオデータの現在ブロックのための現在のイントラ予測モードを決定するステップとをさらに含む、態様1Cの方法。 Aspect 2C - The step of determining the current intra prediction mode is the step of decoding an index into a first-order most probable mode list or a second-order most probable mode list, wherein the index is a first-order most probable mode list or a second-order most probable mode list. The method of aspect 1C, further comprising indicating a non-planar intra prediction mode in the most probable mode list and determining a current intra prediction mode for the current block of video data based on the index.

態様3C - 1次最確モードリストまたは2次最確モードリストへのインデックスを復号するステップが、現在ブロック用に使用されるコーディングツールに基づいてインデックスの第1のビンをエントロピー復号するためのコンテキストを決定するステップと、コンテキストを使用してインデックスの第1のビンをエントロピー復号するステップとを含む、態様2Cの方法。 Aspect 3C - Context for decoding an index into a first-order most probable mode list or a second-order most probable mode list to entropy decode the first bin of the index based on the coding tool currently used for the block. and entropy decoding the first bin of the index using the context.

態様4C - コーディングツールが、通常イントラ予測モード、イントラサブパーティションモード、または複数参照ラインモードのうちの1つである、態様3Cの方法。 Aspect 4C - The method of Aspect 3C, wherein the coding tool is in one of a normal intra prediction mode, an intra subpartition mode, or a multiple reference line mode.

態様5C - Nが22であり、Npが6である、態様1C~4Cのいずれかの方法。 Embodiment 5C - The method of any of Embodiments 1C to 4C, wherein N is 22 and Np is 6.

態様6C - 総最確モードリストを構築するステップが、ビデオデータの現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを総最確モードリストに追加するステップと、それぞれの隣接ブロックからのそれぞれのイントラ予測モードからオフセットされた複数のイントラ予測モードを総最確モードリストに追加するステップとを含む、態様1C~5Cのいずれかの方法。 Aspect 6C - The step of constructing the total most probable mode list comprises adding each intra-prediction mode from each adjacent block of the current block of video data to the total most probable mode list, and each intra-prediction mode from each adjacent block of the current block of video data. and adding a plurality of intra-prediction modes offset from the intra-prediction modes of to the total most probable mode list.

態様7C - ビデオデータの現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを総最確モードリストに追加するステップが、それぞれのイントラ予測モードが利用可能であり、総最確モードリストにまだ追加されていないことに基づいて、ビデオデータの現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを総最確モードリストに追加するステップを含む、態様6Cの方法。 Aspect 7C - Adding each intra prediction mode from each neighboring block of the current block of video data to the total most probable mode list includes the step of adding each intra prediction mode from each adjacent block of the current block of video data The method of aspect 6C, comprising adding each intra prediction mode from each neighboring block of the current block of video data to the total most probable mode list based on not being added.

態様8C - 1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定するステップが、1次最確モードリストまたは2次最確モードリストのいずれかからの現在の最確モードリストを示すシンタックス要素を復号するステップと、現在の最確モードリストへのインデックスを復号するステップと、現在の最確モードリストへのインデックスから現在のイントラ予測モードを決定するステップとを含む、態様1C~7Cのいずれかの方法。 Aspect 8C - Determining the current intra-prediction mode for the current block of video data using the first-order most probable mode list or the second-order most probable mode list comprises decoding a syntax element indicating a current most probable mode list from one of the mode lists; decoding an index into the current most probable mode list; and decoding an index into the current most probable mode list from the current most probable mode list. and determining an intra-prediction mode of.

態様9C - ビデオデータの復号されたブロックを含むピクチャを表示するステップをさらに含む、態様1C~8Cのいずれかの方法。 Aspect 9C - The method of any of Aspects 1C-8C, further comprising displaying a picture that includes the decoded block of video data.

態様10C - ビデオデータを復号するように構成された装置であって、ビデオデータの現在ブロックを記憶するように構成されたメモリと、回路において実装され、メモリと通信している1つまたは複数のプロセッサとを備え、1つまたは複数のプロセッサが、N個のエントリを含む総最確モードリストを構築することであって、総最確モードリストのN個のエントリがイントラ予測モードであり、平面モードが総最確モードリストの中の1番目のエントリである、構築することと、総最確モードリストの中の最初のNp個のエントリから1次最確モードリストを構築することであって、NpがN未満である、構築することと、総最確モードリストの中の残り(N-Np個)のエントリから2次最確モードリストを構築することと、1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定することと、ビデオデータの復号されたブロックを生成するために、現在のイントラ予測モードを使用してビデオデータの現在ブロックを復号することとを行うように構成される、装置。 Aspect 10C - An apparatus configured to decode video data, the apparatus comprising: a memory configured to store a current block of video data; and one or more memory devices implemented in a circuit and in communication with the memory. a processor, the one or more processors constructing a total most probable mode list including N entries, the N entries of the total most probable mode list being intra prediction modes; mode is the first entry in the total most probable mode list, and constructing a first-order most probable mode list from the first Np entries in the total most probable mode list, , Np is less than N, constructing a quadratic most probable mode list from the remaining (N-Np) entries in the total most probable mode list, and constructing a first order most probable mode list or determining a current intra-prediction mode for a current block of video data using a second-order most probable mode list and using the current intra-prediction mode to generate a decoded block of video data; and decoding a current block of video data.

態様11C - 現在のイントラ予測モードを決定するために、1つまたは複数のプロセッサが、1次最確モードリストまたは2次最確モードリストへのインデックスを復号することであって、インデックスが、1次最確モードリストまたは2次最確モードリストの中の非平面イントラ予測モードを示す、復号することと、インデックスに基づいてビデオデータの現在ブロックのための現在のイントラ予測モードを決定することとを行うようにさらに構成される、態様10Cの装置。 Aspect 11C - To determine the current intra-prediction mode, the one or more processors decode an index into a first-order most probable mode list or a second-order most probable mode list, the index being 1 decoding, indicating a non-planar intra prediction mode in a next most probable mode list or a second most probable mode list; and determining a current intra prediction mode for a current block of video data based on the index. The apparatus of embodiment 10C, further configured to perform.

態様12C - 1次最確モードリストまたは2次最確モードリストへのインデックスを復号するために、1つまたは複数のプロセッサが、ビデオデータの現在ブロック用に使用されるコーディングツールに基づいてインデックスの第1のビンをエントロピー復号するためのコンテキストを決定することと、コンテキストを使用してインデックスの第1のビンをエントロピー復号することとを行うようにさらに構成される、態様11Cの装置。 Aspect 12C - To decode the index into the first-order most probable mode list or the second-order most probable mode list, the one or more processors decode the index based on the coding tool used for the current block of video data. The apparatus of aspect 11C, further configured to determine a context for entropy decoding a first bin and entropy decoding a first bin of the index using the context.

態様13C - コーディングツールが、通常イントラ予測モード、イントラサブパーティションモード、または複数参照ラインモードのうちの1つである、態様12Cの装置。 Aspect 13C - The apparatus of Aspect 12C, wherein the coding tool is in one of a normal intra prediction mode, an intra subpartition mode, or a multiple reference line mode.

態様14C - Nが22であり、Npが6である、態様10C~13Cのいずれかの装置。 Embodiment 14C - The device of any of embodiments 10C to 13C, wherein N is 22 and Np is 6.

態様15C - 総最確モードリストを構築するために、1つまたは複数のプロセッサが、ビデオデータの現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを総最確モードリストに追加することと、それぞれの隣接ブロックからのそれぞれのイントラ予測モードからオフセットされた複数のイントラ予測モードを総最確モードリストに追加することとを行うようにさらに構成される、態様10C~14Cのいずれかの装置。 Aspect 15C - To build a total most probable mode list, the one or more processors add each intra-prediction mode from each neighboring block of the current block of video data to the total most probable mode list; , adding the plurality of intra-prediction modes offset from each intra-prediction mode from each neighboring block to the total most probable mode list, the apparatus of any of aspects 10C-14C. .

態様16C - ビデオデータの現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを総最確モードリストに追加するために、1つまたは複数のプロセッサが、それぞれのイントラ予測モードが利用可能であり、総最確モードリストにまだ追加されていないことに基づいて、ビデオデータの現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを総最確モードリストに追加するようにさらに構成される、態様15Cの装置。 Aspect 16C - To add respective intra prediction modes from respective neighboring blocks of the current block of video data to a total most probable mode list, the one or more processors determine whether each intra prediction mode is available and , further configured to add each intra-prediction mode from each neighboring block of the current block of video data to the total most probable mode list based on not already added to the total most probable mode list; The device of embodiment 15C.

態様17C - 1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定するために、1つまたは複数のプロセッサが、1次最確モードリストまたは2次最確モードリストのいずれかからの現在の最確モードリストを示すシンタックス要素を復号することと、現在の最確モードリストへのインデックスを復号することと、現在の最確モードリストへのインデックスから現在のイントラ予測モードを決定することとを行うようにさらに構成される、態様10C~16Cのいずれかの装置。 Aspect 17C - To determine a current intra-prediction mode for a current block of video data using a first-order most probable mode list or a second-order most probable mode list, the one or more processors decoding a syntax element indicating a current most probable mode list from either a definite mode list or a quadratic most probable mode list; decoding an index into the current most probable mode list; 16. The apparatus of any of aspects 10C-16C, further configured to: determine a current intra prediction mode from an index into a reliable mode list.

態様18C - ビデオデータの復号されたブロックを含むピクチャを表示するように構成されたディスプレイをさらに備える、態様10C~17Cのいずれかの装置。 Aspect 18C - The apparatus of any of Aspects 10C-17C, further comprising a display configured to display a picture that includes a decoded block of video data.

態様19C - ビデオデータを符号化するように構成された装置であって、ビデオデータの現在ブロックを記憶するように構成されたメモリと、回路において実装され、メモリと通信している1つまたは複数のプロセッサとを備え、1つまたは複数のプロセッサが、N個のエントリを含む総最確モードリストを構築することであって、総最確モードリストのN個のエントリがイントラ予測モードであり、平面モードが総最確モードリストの中の1番目のエントリである、構築することと、総最確モードリストの中の最初のNp個のエントリから1次最確モードリストを構築することであって、NpがN未満である、構築することと、総最確モードリストの中の残り(N-Np個)のエントリから2次最確モードリストを構築することと、1次最確モードリストまたは2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定することと、ビデオデータの符号化されたブロックを生成するために、現在のイントラ予測モードを使用してビデオデータの現在ブロックを符号化することとを行うように構成される、装置。 Aspect 19C - An apparatus configured to encode video data, the apparatus comprising: a memory configured to store a current block of video data; and one or more implemented in a circuit and in communication with the memory. and the one or more processors constructing a total most probable mode list including N entries, the N entries of the total most probable mode list being intra prediction modes; The planar mode is the first entry in the total most probable mode list, and constructing the first order most probable mode list from the first Np entries in the total most probable mode list. , Np is less than N, constructing a quadratic most probable mode list from the remaining (N-Np) entries in the total most probable mode list, and constructing a first order most probable mode list. or determining the current intra-prediction mode for the current block of video data using the quadratic most probable mode list and selecting the current intra-prediction mode to generate the encoded block of video data. and encoding a current block of video data using an apparatus.

態様20C - 1つまたは複数のプロセッサが、1次最確モードリストまたは2次最確モードリストへのインデックスを符号化することであって、インデックスが、1次最確モードリストまたは2次最確モードリストの中の非平面イントラ予測モードを示す、符号化することを行うようにさらに構成される、態様19Cの装置。 Aspect 20C - The one or more processors encode an index into a first-order most probable mode list or a second-order most probable mode list, the index into a first-order most probable mode list or a second-order most probable mode list. The apparatus of aspect 19C, further configured to perform encoding indicating a non-planar intra prediction mode in the mode list.

態様21C - 1次最確モードリストまたは2次最確モードリストへのインデックスを符号化するために、1つまたは複数のプロセッサが、ビデオデータの現在ブロック用に使用されるコーディングツールに基づいてインデックスの第1のビンをエントロピー符号化するためのコンテキストを決定することと、コンテキストを使用してインデックスの第1のビンをエントロピー符号化することとを行うようにさらに構成される、態様20Cの装置。 Aspect 21C - To encode the index into the first-order most probable mode list or the second-order most probable mode list, the one or more processors encode the index based on the coding tool used for the current block of video data. The apparatus of aspect 20C, further configured to: determine a context for entropy encoding a first bin of the index; and entropy encode a first bin of the index using the context. .

態様22C - コーディングツールが、通常イントラ予測モード、イントラサブパーティションモード、または複数参照ラインモードのうちの1つである、態様21Cの装置。 Aspect 22C - The apparatus of Aspect 21C, wherein the coding tool is in one of a normal intra prediction mode, an intra subpartition mode, or a multiple reference line mode.

態様23C - Nが22であり、Npが6である、態様19C~22Cのいずれかの装置。 Embodiment 23C - The device of any of embodiments 19C-22C, wherein N is 22 and Np is 6.

態様24C - 総最確モードリストを構築するために、1つまたは複数のプロセッサが、ビデオデータの現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを総最確モードリストに追加することと、それぞれの隣接ブロックからのそれぞれのイントラ予測モードからオフセットされた複数のイントラ予測モードを総最確モードリストに追加することとを行うようにさらに構成される、態様19C~23Cのいずれかの装置。 Aspect 24C - To construct a total most probable mode list, the one or more processors add each intra-prediction mode from each neighboring block of the current block of video data to the total most probable mode list; , adding a plurality of intra-prediction modes offset from respective intra-prediction modes from respective neighboring blocks to the total most probable mode list. .

態様25 - ビデオデータの現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを総最確モードリストに追加するために、1つまたは複数のプロセッサが、それぞれのイントラ予測モードが利用可能であり、総最確モードリストにまだ追加されていないことに基づいて、ビデオデータの現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを総最確モードリストに追加するようにさらに構成される、態様19C~24Cのいずれかの装置。 Aspect 25 - The one or more processors determine whether each intra-prediction mode is available and adds each intra-prediction mode from each neighboring block of the current block of video data to a total most probable mode list. , further configured to add each intra-prediction mode from each neighboring block of the current block of video data to the total most probable mode list based on not already added to the total most probable mode list; The device of any of aspects 19C to 24C.

態様26C - ビデオデータの現在ブロックを含むピクチャをキャプチャするように構成されたカメラをさらに備える、態様19C~25Cのいずれかの装置。 Aspect 26C - The apparatus of any of Aspects 19C-25C, further comprising a camera configured to capture a picture that includes a current block of video data.

例に応じて、本明細書で説明する技法のいずれかのいくつかの行為またはイベントが、異なるシーケンスで実行される場合があり、追加され、統合され、または完全に除外されてもよい(たとえば、説明したすべての行為またはイベントが技法の実践にとって必要であるとは限らない)ことを認識されたい。さらに、いくつかの例では、行為またはイベントは、連続的にではなく、たとえば、マルチスレッド処理、割込み処理、または複数のプロセッサを通じて、同時に実行されてもよい。 Depending on the example, some acts or events of any of the techniques described herein may be performed in different sequences, and may be added, integrated, or excluded entirely (e.g. , it is recognized that not all acts or events described may be necessary for the practice of the technique). Further, in some examples, acts or events may be performed concurrently rather than sequentially, eg, through multi-threaded processing, interrupt processing, or multiple processors.

1つまたは複数の例では、説明した機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せにおいて実装され得る。ソフトウェアにおいて実装される場合、機能は、1つまたは複数の命令またはコードとして、コンピュータ可読媒体上に記憶されるか、またはコンピュータ可読媒体を介して送信され、ハードウェアベースの処理ユニットによって実行され得る。コンピュータ可読媒体は、データ記憶媒体などの有形媒体に対応するコンピュータ可読記憶媒体、または、たとえば、通信プロトコルに従って、ある場所から別の場所へのコンピュータプログラムの転送を容易にする任意の媒体を含む通信媒体を含み得る。このように、コンピュータ可読媒体は一般に、(1)非一時的である有形コンピュータ可読記憶媒体、または(2)信号もしくは搬送波などの通信媒体に対応し得る。データ記憶媒体は、本開示で説明する技法の実装のための命令、コードおよび/またはデータ構造を取り出すために1つもしくは複数のコンピュータまたは1つもしくは複数のプロセッサによってアクセスされ得る、任意の利用可能な媒体であり得る。コンピュータプログラム製品は、コンピュータ可読媒体を含み得る。 In one or more examples, the described functionality may be implemented in hardware, software, firmware, or any combination thereof. If implemented in software, the functions may be stored on or transmitted over a computer-readable medium as one or more instructions or code for execution by a hardware-based processing unit. . Computer-readable media refers to a computer-readable storage medium that corresponds to a tangible medium such as a data storage medium or communication protocol including any medium that facilitates transfer of a computer program from one place to another according to, e.g., a communication protocol. may include a medium. Thus, computer-readable media generally may correspond to (1) tangible computer-readable storage media that is non-transitory, or (2) a communication medium such as a signal or carrier wave. The data storage medium can be any available data storage medium that can be accessed by one or more computers or one or more processors to retrieve instructions, code and/or data structures for implementation of the techniques described in this disclosure. It can be any medium. A computer program product may include a computer readable medium.

限定ではなく例として、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM、CD-ROMもしくは他の光ディスクストレージ、磁気ディスクストレージもしくは他の磁気記憶デバイス、フラッシュメモリ、または、命令もしくはデータ構造の形態の所望のプログラムコードを記憶するために使用され得、コンピュータによってアクセスされ得る任意の他の媒体を備えることができる。また、いかなる接続もコンピュータ可読媒体と適切に呼ばれる。たとえば、命令が、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者線(DSL)、または赤外線、無線、およびマイクロ波などのワイヤレス技術を使用してウェブサイト、サーバ、または他のリモートソースから送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は媒体の定義に含まれる。しかしながら、コンピュータ可読記憶媒体およびデータ記憶媒体が、接続、搬送波、信号、または他の一時的媒体を含まず、代わりに非一時的有形記憶媒体を対象とすることを理解されたい。本明細書で使用するディスク(disk)およびディスク(disc)は、コンパクトディスク(disc)(CD)、レーザーディスク(登録商標)(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピーディスク(disk)およびブルーレイディスク(disc)を含み、ディスク(disk)は通常、データを磁気的に再生し、ディスク(disc)は、レーザーを用いてデータを光学的に再生する。上記の組合せも、コンピュータ可読媒体の範囲内に含まれるべきである。 By way of example and not limitation, such computer-readable storage medium may include RAM, ROM, EEPROM, CD-ROM or other optical disk storage, magnetic disk storage or other magnetic storage device, flash memory, or a memory containing instructions or data structures. Any other medium that can be used to store desired program code in the form and that can be accessed by a computer can be included. Also, any connection is properly termed a computer-readable medium. For example, if the instructions are transmitted from a website, server, or other remote source using coaxial cable, fiber optic cable, twisted pair, digital subscriber line (DSL), or wireless technologies such as infrared, radio, and microwave. coaxial cable, fiber optic cable, twisted pair, DSL, or wireless technologies such as infrared, radio, and microwave are included in the definition of medium. It should be understood, however, that computer-readable storage media and data storage media do not include connections, carrier waves, signals or other transitory media, and instead refer to non-transitory tangible storage media. As used herein, "disk" and "disc" refer to compact disc (disc) (CD), Laserdisc (registered trademark) (disc), optical disc (disc), digital versatile disc (disc) (DVD). ), floppy disks (disks), and Blu-ray disks (discs), with disks typically reproducing data magnetically and discs reproducing data optically using lasers. Combinations of the above should also be included within the scope of computer-readable media.

命令は、1つまたは複数のDSP、汎用マイクロプロセッサ、ASIC、FPGA、または他の等価な集積論理回路もしくはディスクリート論理回路などの、1つまたは複数のプロセッサによって実行され得る。したがって、本明細書で使用する「プロセッサ」および「処理回路」という用語は、上記の構造、または本明細書で説明する技法の実装に適した任意の他の構造のいずれかを指すことがある。加えて、いくつかの態様では、本明細書で説明する機能は、符号化および復号のために構成された専用のハードウェアモジュールおよび/もしくはソフトウェアモジュール内で提供されてもよく、または複合コーデックに組み込まれてもよい。また、技法は、1つまたは複数の回路または論理要素において完全に実装され得る。 The instructions may be executed by one or more processors, such as one or more DSPs, general purpose microprocessors, ASICs, FPGAs, or other equivalent integrated or discrete logic circuits. Accordingly, the terms "processor" and "processing circuitry" as used herein may refer to any of the structures described above, or any other structure suitable for implementing the techniques described herein. . Additionally, in some aspects, the functionality described herein may be provided within dedicated hardware and/or software modules configured for encoding and decoding, or in combination codecs. May be incorporated. Also, the techniques may be implemented entirely in one or more circuits or logic elements.

本開示の技法は、ワイヤレスハンドセット、集積回路(IC)またはICのセット(たとえば、チップセット)を含む、多種多様なデバイスまたは装置において実装され得る。開示した技法を実行するように構成されたデバイスの機能的態様を強調するために、様々な構成要素、モジュール、またはユニットについて本開示で説明したが、それらは必ずしも異なるハードウェアユニットによる実現を必要とするとは限らない。むしろ、上記で説明したように、様々なユニットは、コーデックハードウェアユニットにおいて組み合わされてもよく、または好適なソフトウェアおよび/もしくはファームウェアとともに、上記で説明したような1つもしくは複数のプロセッサを含む、相互動作可能なハードウェアユニットの集合によって提供されてもよい。 The techniques of this disclosure may be implemented in a wide variety of devices or apparatuses, including wireless handsets, integrated circuits (ICs) or sets of ICs (eg, chipsets). Although various components, modules, or units are described in this disclosure to emphasize functional aspects of devices configured to perform the disclosed techniques, they do not necessarily require implementation by different hardware units. Not necessarily. Rather, as explained above, the various units may be combined in a codec hardware unit, or include one or more processors as explained above, together with suitable software and/or firmware. It may also be provided by a collection of interoperable hardware units.

様々な例について説明してきた。これらおよび他の例は、以下の特許請求の範囲内に入る。 We have discussed various examples. These and other examples are within the scope of the following claims.

100 ビデオ符号化および復号システム、システム
102 ソースデバイス
104 ビデオソース
106 メモリ
108 出力インターフェース
110 コンピュータ可読媒体
112 記憶デバイス
114 ファイルサーバ
116 宛先デバイス
118 ディスプレイデバイス
120 メモリ
122 入力インターフェース
130 4分木2分木(QTBT)構造、QTBT構造
132 コーディングツリーユニット(CTU)、CTU
200 ビデオエンコーダ
202 モード選択ユニット
204 残差生成ユニット
206 変換処理ユニット
208 量子化ユニット
210 逆量子化ユニット
212 逆変換処理ユニット
214 再構成ユニット
216 フィルタユニット
218 復号ピクチャバッファ(DPB)、DPB
220 エントロピー符号化ユニット
222 動き推定ユニット
224 動き補償ユニット
226 イントラ予測ユニット
230 ビデオデータメモリ
300 ビデオデコーダ
302 エントロピー復号ユニット
304 予測処理ユニット
306 逆量子化ユニット
308 逆変換処理ユニット
310 再構成ユニット
312 フィルタユニット
314 復号ピクチャバッファ(DPB)、DPB
316 動き補償ユニット
318 イントラ予測ユニット
320 コード化ピクチャバッファ(CPB)メモリ、CPBメモリ
400 CU
402 CU
100 Video Encoding and Decoding Systems, Systems
102 Source device
104 Video Source
106 Memory
108 output interface
110 Computer-readable media
112 Storage devices
114 File server
116 Destination Device
118 Display devices
120 memory
122 input interface
130 Quadrant binary tree (QTBT) structure, QTBT structure
132 Coding Tree Unit (CTU), CTU
200 video encoder
202 Mode selection unit
204 Residual generation unit
206 Conversion processing unit
208 Quantization unit
210 Inverse quantization unit
212 Inverse transformation processing unit
214 Reconfiguration unit
216 Filter unit
218 Decoded Picture Buffer (DPB), DPB
220 entropy coding units
222 Motion estimation unit
224 Motion Compensation Unit
226 Intra prediction unit
230 video data memory
300 video decoder
302 Entropy decoding unit
304 Prediction processing unit
306 Inverse quantization unit
308 Inverse conversion processing unit
310 Reconfiguration unit
312 Filter unit
314 Decoded Picture Buffer (DPB), DPB
316 Motion compensation unit
318 Intra prediction unit
320 coded picture buffer (CPB) memory, CPB memory
400 C.U.
402 C.U.

Claims (32)

ビデオデータを復号する方法であって、
N個のエントリを含む総最確モードリストを構築するステップであって、前記総最確モードリストの前記N個のエントリがイントラ予測モードであり、平面モードが前記総最確モードリストの中の1番目のエントリである、ステップと、
前記総最確モードリストの中の最初のNp個のエントリから1次最確モードリストを構築するステップであって、NpがN未満である、ステップと、
前記総最確モードリストの中の残り(N-Np個)のエントリから2次最確モードリストを構築するステップと、
前記1次最確モードリストまたは前記2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定するステップと、
ビデオデータの復号されたブロックを生成するために、前記現在のイントラ予測モードを使用してビデオデータの前記現在ブロックを復号するステップと
を含む方法。
A method for decoding video data, the method comprising:
constructing a total most probable mode list including N entries, wherein the N entries of the total most probable mode list are intra-prediction modes, and the planar mode is one of the total most probable mode lists in the total most probable mode list. The first entry, step,
constructing a first-order most probable mode list from the first Np entries in the total most probable mode list, where Np is less than N;
constructing a quadratic most probable mode list from the remaining (N-Np) entries in the total most probable mode list;
determining a current intra prediction mode for a current block of video data using the first order most probable mode list or the second order most probable mode list;
decoding the current block of video data using the current intra prediction mode to generate a decoded block of video data.
前記現在のイントラ予測モードを決定するステップが、
前記1次最確モードリストまたは前記2次最確モードリストへのインデックスを復号するステップであって、前記インデックスが、前記1次最確モードリストまたは前記2次最確モードリストの中の非平面イントラ予測モードを示す、ステップと、
前記インデックスに基づいてビデオデータの前記現在ブロックのための前記現在のイントラ予測モードを決定するステップと
をさらに含む、請求項1に記載の方法。
The step of determining the current intra prediction mode comprises:
decoding an index into the first-order most probable mode list or the second-order most probable mode list, the index being a non-plane in the first-order most probable mode list or the second-order most probable mode list; Indicating an intra prediction mode, a step;
2. The method of claim 1, further comprising: determining the current intra prediction mode for the current block of video data based on the index.
前記1次最確モードリストまたは前記2次最確モードリストへの前記インデックスを復号するステップが、
ビデオデータの前記現在ブロック用に使用されるコーディングツールに基づいて前記インデックスの第1のビンをエントロピー復号するためのコンテキストを決定するステップと、
前記コンテキストを使用して前記インデックスの前記第1のビンをエントロピー復号するステップと
を含む、請求項2に記載の方法。
decoding the index into the first order most probable mode list or the second order most probable mode list,
determining a context for entropy decoding the first bin of the index based on a coding tool used for the current block of video data;
and entropy decoding the first bin of the index using the context.
前記コーディングツールが、通常イントラ予測モード、イントラサブパーティションモード、または複数参照ラインモードのうちの1つである、請求項3に記載の方法。 4. The method of claim 3, wherein the coding tool is in one of a normal intra prediction mode, an intra subpartition mode, or a multiple reference line mode. Nが22であり、Npが6である、請求項1に記載の方法。 2. The method of claim 1, wherein N is 22 and Np is 6. 前記総最確モードリストを構築するステップが、
ビデオデータの前記現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを前記総最確モードリストに追加するステップと、
前記それぞれの隣接ブロックからの前記それぞれのイントラ予測モードからオフセットされた複数のイントラ予測モードを前記総最確モードリストに追加するステップと
を含む、請求項1に記載の方法。
The step of constructing the total most probable mode list comprises:
adding respective intra prediction modes from respective neighboring blocks of the current block of video data to the total most probable mode list;
and adding a plurality of intra prediction modes offset from the respective intra prediction modes from the respective neighboring blocks to the total most probable mode list.
ビデオデータの前記現在ブロックの前記それぞれの隣接ブロックからの前記それぞれのイントラ予測モードを前記総最確モードリストに追加するステップが、前記それぞれのイントラ予測モードが利用可能であり、前記総最確モードリストにまだ追加されていないことに基づいて、ビデオデータの前記現在ブロックの前記それぞれの隣接ブロックからの前記それぞれのイントラ予測モードを前記総最確モードリストに追加するステップを含む、請求項6に記載の方法。 adding the respective intra prediction modes from the respective neighboring blocks of the current block of video data to the total most probable mode list, wherein the respective intra prediction modes are available and the total most probable mode 7. Adding the respective intra prediction modes from the respective neighboring blocks of the current block of video data to the total most probable mode list based on not already added to the list. Method described. 前記1次最確モードリストまたは前記2次最確モードリストを使用してビデオデータの前記現在ブロックのための前記現在のイントラ予測モードを決定するステップが、
前記1次最確モードリストまたは前記2次最確モードリストのいずれかからの現在の最確モードリストを示すシンタックス要素を復号するステップと、
前記現在の最確モードリストへのインデックスを復号するステップと、
前記現在の最確モードリストへの前記インデックスから前記現在のイントラ予測モードを決定するステップと
を含む、請求項1に記載の方法。
determining the current intra prediction mode for the current block of video data using the first order most probable mode list or the second order most probable mode list;
decoding a syntax element indicating a current most probable mode list from either the first order most probable mode list or the second order most probable mode list;
decoding the index into the current most probable mode list;
and determining the current intra-prediction mode from the index into the current most probable mode list.
ビデオデータの前記復号されたブロックを含むピクチャを表示するステップをさらに含む、請求項1に記載の方法。 2. The method of claim 1, further comprising displaying a picture including the decoded block of video data. ビデオデータを復号するように構成された装置であって、
ビデオデータの現在ブロックを記憶するように構成されたメモリと、
回路において実装され、前記メモリと通信している1つまたは複数のプロセッサと
を備え、前記1つまたは複数のプロセッサが、
N個のエントリを含む総最確モードリストを構築することであって、前記総最確モードリストの前記N個のエントリがイントラ予測モードであり、平面モードが前記総最確モードリストの中の1番目のエントリである、構築することと、
前記総最確モードリストの中の最初のNp個のエントリから1次最確モードリストを構築することであって、NpがN未満である、構築することと、
前記総最確モードリストの中の残り(N-Np個)のエントリから2次最確モードリストを構築することと、
前記1次最確モードリストまたは前記2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定することと、
ビデオデータの復号されたブロックを生成するために、前記現在のイントラ予測モードを使用してビデオデータの前記現在ブロックを復号することと
を行うように構成される、装置。
An apparatus configured to decode video data, the apparatus comprising:
a memory configured to store a current block of video data;
one or more processors implemented in circuitry and in communication with the memory, the one or more processors comprising:
constructing a total most probable mode list including N entries, wherein the N entries of the total most probable mode list are intra-prediction modes, and the planar mode is one of the total most probable mode lists; The first entry, building, and
constructing a first order most probable mode list from the first Np entries in the total most probable mode list, where Np is less than N;
constructing a quadratic most probable mode list from the remaining (N-Np) entries in the total most probable mode list;
determining a current intra prediction mode for a current block of video data using the first order most probable mode list or the second order most probable mode list;
decoding the current block of video data using the current intra prediction mode to generate a decoded block of video data.
前記現在のイントラ予測モードを決定するために、前記1つまたは複数のプロセッサが、
前記1次最確モードリストまたは前記2次最確モードリストへのインデックスを復号することであって、前記インデックスが、前記1次最確モードリストまたは前記2次最確モードリストの中の非平面イントラ予測モードを示す、復号することと、
前記インデックスに基づいてビデオデータの前記現在ブロックのための前記現在のイントラ予測モードを決定することと
を行うようにさらに構成される、請求項10に記載の装置。
to determine the current intra prediction mode, the one or more processors:
decoding an index into the first-order most probable mode list or the second-order most probable mode list, wherein the index is a non-plane in the first-order most probable mode list or the second-order most probable mode list; decoding and indicating an intra prediction mode;
11. The apparatus of claim 10, further configured to: determine the current intra prediction mode for the current block of video data based on the index.
前記1次最確モードリストまたは前記2次最確モードリストへの前記インデックスを復号するために、前記1つまたは複数のプロセッサが、
ビデオデータの前記現在ブロック用に使用されるコーディングツールに基づいて前記インデックスの第1のビンをエントロピー復号するためのコンテキストを決定することと、
前記コンテキストを使用して前記インデックスの前記第1のビンをエントロピー復号することと
を行うようにさらに構成される、請求項11に記載の装置。
In order to decode the index into the first order most probable mode list or the second order most probable mode list, the one or more processors:
determining a context for entropy decoding the first bin of the index based on a coding tool used for the current block of video data;
12. The apparatus of claim 11, further configured to entropy decode the first bin of the index using the context.
前記コーディングツールが、通常イントラ予測モード、イントラサブパーティションモード、または複数参照ラインモードのうちの1つである、請求項12に記載の装置。 13. The apparatus of claim 12, wherein the coding tool is in one of a normal intra prediction mode, an intra subpartition mode, or a multiple reference line mode. Nが22であり、Npが6である、請求項10に記載の装置。 11. The device of claim 10, wherein N is 22 and Np is 6. 前記総最確モードリストを構築するために、前記1つまたは複数のプロセッサが、
ビデオデータの前記現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを前記総最確モードリストに追加することと、
前記それぞれの隣接ブロックからの前記それぞれのイントラ予測モードからオフセットされた複数のイントラ予測モードを前記総最確モードリストに追加することと
を行うようにさらに構成される、請求項10に記載の装置。
In order to construct the total most probable mode list, the one or more processors:
adding respective intra prediction modes from respective neighboring blocks of the current block of video data to the total most probable mode list;
11. The apparatus of claim 10, further configured to: add a plurality of intra prediction modes offset from the respective intra prediction modes from the respective neighboring blocks to the total most probable mode list. .
ビデオデータの前記現在ブロックの前記それぞれの隣接ブロックからの前記それぞれのイントラ予測モードを前記総最確モードリストに追加するために、前記1つまたは複数のプロセッサが、
前記それぞれのイントラ予測モードが利用可能であり、前記総最確モードリストにまだ追加されていないことに基づいて、ビデオデータの前記現在ブロックの前記それぞれの隣接ブロックからの前記それぞれのイントラ予測モードを前記総最確モードリストに追加するようにさらに構成される、請求項15に記載の装置。
the one or more processors for adding the respective intra prediction modes from the respective neighboring blocks of the current block of video data to the total most probable mode list;
the respective intra prediction modes from the respective neighboring blocks of the current block of video data based on the respective intra prediction modes being available and not yet added to the total most probable mode list; 16. The apparatus of claim 15, further configured to add to the total most probable mode list.
前記1次最確モードリストまたは前記2次最確モードリストを使用してビデオデータの前記現在ブロックのための前記現在のイントラ予測モードを決定するために、前記1つまたは複数のプロセッサが、
前記1次最確モードリストまたは前記2次最確モードリストのいずれかからの現在の最確モードリストを示すシンタックス要素を復号することと、
前記現在の最確モードリストへのインデックスを復号することと、
前記現在の最確モードリストへの前記インデックスから前記現在のイントラ予測モードを決定することと
を行うようにさらに構成される、請求項10に記載の装置。
the one or more processors to determine the current intra prediction mode for the current block of video data using the first order most probable mode list or the second order most probable mode list;
decoding a syntax element indicating a current most probable mode list from either the first order most probable mode list or the second order most probable mode list;
decoding an index into the current most probable mode list;
11. The apparatus of claim 10, further configured to: determine the current intra prediction mode from the index into the current most probable mode list.
ビデオデータの前記復号されたブロックを含むピクチャを表示するように構成されたディスプレイ
をさらに備える、請求項10に記載の装置。
11. The apparatus of claim 10, further comprising a display configured to display a picture including the decoded block of video data.
ビデオデータを復号するように構成された装置であって、
N個のエントリを含む総最確モードリストを構築するための手段であって、前記総最確モードリストの前記N個のエントリがイントラ予測モードであり、平面モードが前記総最確モードリストの中の1番目のエントリである、手段と、
前記総最確モードリストの中の最初のNp個のエントリから1次最確モードリストを構築するための手段であって、NpがN未満である、手段と、
前記総最確モードリストの中の残り(N-Np個)のエントリから2次最確モードリストを構築するための手段と、
前記1次最確モードリストまたは前記2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定するための手段と、
ビデオデータの復号されたブロックを生成するために、前記現在のイントラ予測モードを使用してビデオデータの前記現在ブロックを復号するための手段と
を備える装置。
An apparatus configured to decode video data, the apparatus comprising:
Means for constructing a total most probable mode list including N entries, wherein the N entries of the total most probable mode list are intra prediction modes, and the planar mode is the total most probable mode list of the total most probable mode list. The first entry in the means and
means for constructing a first order most probable mode list from the first Np entries in the total most probable mode list, where Np is less than N;
means for constructing a quadratic most probable mode list from the remaining (N-Np) entries in the total most probable mode list;
means for determining a current intra prediction mode for a current block of video data using the first order most probable mode list or the second order most probable mode list;
and means for decoding the current block of video data using the current intra prediction mode to generate a decoded block of video data.
前記現在のイントラ予測モードを決定するための前記手段が、
前記1次最確モードリストまたは前記2次最確モードリストへのインデックスを復号するための手段であって、前記インデックスが、前記1次最確モードリストまたは前記2次最確モードリストの中の非平面イントラ予測モードを示す、手段と、
前記インデックスに基づいてビデオデータの前記現在ブロックのための前記現在のイントラ予測モードを決定するための手段と
をさらに備える、請求項19に記載の装置。
The means for determining the current intra prediction mode,
Means for decoding an index into the first most probable mode list or the second most probable mode list, the index being one of the first most probable mode list or the second most probable mode list. means for indicating a non-planar intra prediction mode;
20. The apparatus of claim 19, further comprising means for determining the current intra prediction mode for the current block of video data based on the index.
前記1次最確モードリストまたは前記2次最確モードリストへの前記インデックスを復号するための前記手段が、
ビデオデータの前記現在ブロック用に使用されるコーディングツールに基づいて前記インデックスの第1のビンをエントロピー復号するためのコンテキストを決定するための手段と、
前記コンテキストを使用して前記インデックスの前記第1のビンをエントロピー復号するための手段と
を備える、請求項20に記載の装置。
The means for decoding the index into the first order most probable mode list or the second order most probable mode list,
means for determining a context for entropy decoding the first bin of the index based on a coding tool used for the current block of video data;
and means for entropy decoding the first bin of the index using the context.
命令を記憶した非一時的コンピュータ可読記憶媒体であって、前記命令が、実行されると、ビデオデータを復号するように構成された1つまたは複数のプロセッサに、
N個のエントリを含む総最確モードリストを構築することであって、前記総最確モードリストの前記N個のエントリがイントラ予測モードであり、平面モードが前記総最確モードリストの中の1番目のエントリである、構築することと、
前記総最確モードリストの中の最初のNp個のエントリから1次最確モードリストを構築することであって、NpがN未満である、構築することと、
前記総最確モードリストの中の残り(N-Np個)のエントリから2次最確モードリストを構築することと、
前記1次最確モードリストまたは前記2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定することと、
ビデオデータの復号されたブロックを生成するために、前記現在のイントラ予測モードを使用してビデオデータの前記現在ブロックを復号することと
を行わせる、非一時的コンピュータ可読記憶媒体。
a non-transitory computer-readable storage medium having instructions stored thereon, the instructions, when executed, being configured to decode video data;
constructing a total most probable mode list including N entries, wherein the N entries of the total most probable mode list are intra-prediction modes, and the planar mode is one of the total most probable mode lists; The first entry, building, and
constructing a first order most probable mode list from the first Np entries in the total most probable mode list, where Np is less than N;
constructing a quadratic most probable mode list from the remaining (N-Np) entries in the total most probable mode list;
determining a current intra prediction mode for a current block of video data using the first order most probable mode list or the second order most probable mode list;
and decoding the current block of video data using the current intra prediction mode to generate a decoded block of video data.
前記現在のイントラ予測モードを決定するために、前記命令が、前記1つまたは複数のプロセッサに、
前記1次最確モードリストまたは前記2次最確モードリストへのインデックスを復号することであって、前記インデックスが、前記1次最確モードリストまたは前記2次最確モードリストの中の非平面イントラ予測モードを示す、復号することと、
前記インデックスに基づいてビデオデータの前記現在ブロックのための前記現在のイントラ予測モードを決定することと
をさらに行わせる、請求項22に記載の非一時的コンピュータ可読記憶媒体。
to determine the current intra prediction mode, the instructions cause the one or more processors to:
decoding an index into the first-order most probable mode list or the second-order most probable mode list, wherein the index is a non-plane in the first-order most probable mode list or the second-order most probable mode list; decoding and indicating an intra prediction mode;
23. The non-transitory computer-readable storage medium of claim 22, further comprising: determining the current intra prediction mode for the current block of video data based on the index.
前記1次最確モードリストまたは前記2次最確モードリストへの前記インデックスを復号するために、前記命令が、前記1つまたは複数のプロセッサに、
ビデオデータの前記現在ブロック用に使用されるコーディングツールに基づいて前記インデックスの第1のビンをエントロピー復号するためのコンテキストを決定することと、
前記コンテキストを使用して前記インデックスの前記第1のビンをエントロピー復号することと
をさらに行わせる、請求項23に記載の非一時的コンピュータ可読記憶媒体。
The instructions cause the one or more processors to decode the index into the first order most probable mode list or the second order most probable mode list.
determining a context for entropy decoding the first bin of the index based on a coding tool used for the current block of video data;
24. The non-transitory computer-readable storage medium of claim 23, further comprising entropy decoding the first bin of the index using the context.
ビデオデータを符号化するように構成された装置であって、
ビデオデータの現在ブロックを記憶するように構成されたメモリと、
回路において実装され、前記メモリと通信している1つまたは複数のプロセッサと
を備え、前記1つまたは複数のプロセッサが、
N個のエントリを含む総最確モードリストを構築することであって、前記総最確モードリストの前記N個のエントリがイントラ予測モードであり、平面モードが前記総最確モードリストの中の1番目のエントリである、構築することと、
前記総最確モードリストの中の最初のNp個のエントリから1次最確モードリストを構築することであって、NpがN未満である、構築することと、
前記総最確モードリストの中の残り(N-Np個)のエントリから2次最確モードリストを構築することと、
前記1次最確モードリストまたは前記2次最確モードリストを使用してビデオデータの現在ブロックのための現在のイントラ予測モードを決定することと、
ビデオデータの符号化されたブロックを生成するために、前記現在のイントラ予測モードを使用してビデオデータの前記現在ブロックを符号化することと
を行うように構成される、装置。
An apparatus configured to encode video data, the apparatus comprising:
a memory configured to store a current block of video data;
one or more processors implemented in circuitry and in communication with the memory, the one or more processors comprising:
constructing a total most probable mode list including N entries, wherein the N entries of the total most probable mode list are intra-prediction modes, and the planar mode is one of the total most probable mode lists; The first entry, building, and
constructing a first order most probable mode list from the first Np entries in the total most probable mode list, where Np is less than N;
constructing a quadratic most probable mode list from the remaining (N-Np) entries in the total most probable mode list;
determining a current intra prediction mode for a current block of video data using the first order most probable mode list or the second order most probable mode list;
and encoding the current block of video data using the current intra prediction mode to generate an encoded block of video data.
前記1つまたは複数のプロセッサが、前記1次最確モードリストまたは前記2次最確モードリストへのインデックスを符号化することであって、前記インデックスが、前記1次最確モードリストまたは前記2次最確モードリストの中の非平面イントラ予測モードを示す、符号化することを行うようにさらに構成される、請求項25に記載の装置。 the one or more processors encoding an index into the first order most probable mode list or the second order most probable mode list, wherein the index is one of the first order most probable mode list or the second order most probable mode list; 26. The apparatus of claim 25, further configured to indicate and encode a non-planar intra prediction mode in the next most probable mode list. 前記1次最確モードリストまたは前記2次最確モードリストへの前記インデックスを符号化するために、前記1つまたは複数のプロセッサが、
ビデオデータの前記現在ブロック用に使用されるコーディングツールに基づいて前記インデックスの第1のビンをエントロピー符号化するためのコンテキストを決定することと、
前記コンテキストを使用して前記インデックスの前記第1のビンをエントロピー符号化することと
を行うようにさらに構成される、請求項26に記載の装置。
the one or more processors to encode the index into the first order most probable mode list or the second order most probable mode list;
determining a context for entropy encoding the first bin of the index based on a coding tool used for the current block of video data;
27. The apparatus of claim 26, further configured to entropy encode the first bin of the index using the context.
前記コーディングツールが、通常イントラ予測モード、イントラサブパーティションモード、または複数参照ラインモードのうちの1つである、請求項27に記載の装置。 28. The apparatus of claim 27, wherein the coding tool is in one of a normal intra prediction mode, an intra subpartition mode, or a multiple reference line mode. Nが22であり、Npが6である、請求項25に記載の装置。 26. The device of claim 25, wherein N is 22 and Np is 6. 前記総最確モードリストを構築するために、前記1つまたは複数のプロセッサが、
ビデオデータの前記現在ブロックのそれぞれの隣接ブロックからのそれぞれのイントラ予測モードを前記総最確モードリストに追加することと、
前記それぞれの隣接ブロックからの前記それぞれのイントラ予測モードからオフセットされた複数のイントラ予測モードを前記総最確モードリストに追加することと
を行うようにさらに構成される、請求項25に記載の装置。
In order to construct the total most probable mode list, the one or more processors:
adding respective intra prediction modes from respective neighboring blocks of the current block of video data to the total most probable mode list;
26. The apparatus of claim 25, further configured to: add a plurality of intra prediction modes offset from the respective intra prediction modes from the respective neighboring blocks to the total most probable mode list. .
ビデオデータの前記現在ブロックの前記それぞれの隣接ブロックからの前記それぞれのイントラ予測モードを前記総最確モードリストに追加するために、前記1つまたは複数のプロセッサが、
前記それぞれのイントラ予測モードが利用可能であり、前記総最確モードリストにまだ追加されていないことに基づいて、ビデオデータの前記現在ブロックの前記それぞれの隣接ブロックからの前記それぞれのイントラ予測モードを前記総最確モードリストに追加するようにさらに構成される、請求項30に記載の装置。
the one or more processors for adding the respective intra prediction modes from the respective neighboring blocks of the current block of video data to the total most probable mode list;
the respective intra prediction modes from the respective neighboring blocks of the current block of video data based on the respective intra prediction modes being available and not yet added to the total most probable mode list; 31. The apparatus of claim 30, further configured to add to the total most probable mode list.
ビデオデータの前記現在ブロックを含むピクチャをキャプチャするように構成されたカメラ
をさらに備える、請求項25に記載の装置。
26. The apparatus of claim 25, further comprising a camera configured to capture a picture including the current block of video data.
JP2023532812A 2020-12-28 2021-11-23 Most probable mode for intra prediction in video coding Pending JP2024501138A (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202063131115P 2020-12-28 2020-12-28
US63/131,115 2020-12-28
US17/456,080 2021-11-22
US17/456,080 US11863752B2 (en) 2020-12-28 2021-11-22 Most probable modes for intra prediction for video coding
PCT/US2021/060561 WO2022146583A1 (en) 2020-12-28 2021-11-23 Most probable modes for intra prediction for video coding

Publications (1)

Publication Number Publication Date
JP2024501138A true JP2024501138A (en) 2024-01-11

Family

ID=79927367

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023532812A Pending JP2024501138A (en) 2020-12-28 2021-11-23 Most probable mode for intra prediction in video coding

Country Status (5)

Country Link
EP (1) EP4268454A1 (en)
JP (1) JP2024501138A (en)
KR (1) KR20230125781A (en)
TW (1) TW202232954A (en)
WO (1) WO2022146583A1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3422716A1 (en) * 2017-06-26 2019-01-02 Thomson Licensing Method and apparatus for most probable mode (mpm) sorting and signaling in video encoding and decoding
CN113812160B (en) * 2019-05-09 2024-01-12 北京字节跳动网络技术有限公司 Maximum possible mode list construction for screen content codec

Also Published As

Publication number Publication date
EP4268454A1 (en) 2023-11-01
TW202232954A (en) 2022-08-16
WO2022146583A1 (en) 2022-07-07
KR20230125781A (en) 2023-08-29

Similar Documents

Publication Publication Date Title
US11563980B2 (en) General constraint information syntax in video coding
US11206400B2 (en) Low-frequency non-separable transform (LFNST) simplifications
US11539982B2 (en) Merge estimation region for multi-type-tree block structure
US11368715B2 (en) Block-based delta pulse code modulation for video coding
US20200288130A1 (en) Simplification of sub-block transforms in video coding
US11659207B2 (en) General constraints of syntax elements for video coding
US11825073B2 (en) High level syntax for video with mixed NAL unit types
US20210092406A1 (en) Inter-layer reference picture signaling in video coding
US20210321137A1 (en) Low-frequency non-separable transform index signaling in video coding
US11722692B2 (en) History-based motion vector predictor constraint for merge estimation region
US11627327B2 (en) Palette and prediction mode signaling
US11863752B2 (en) Most probable modes for intra prediction for video coding
US11729381B2 (en) Deblocking filter parameter signaling
US11659197B2 (en) Signaling number of subblock merge candidates in video coding
US11582491B2 (en) Low-frequency non-separable transform processing in video coding
US11683489B2 (en) Monochrome palette mode for video coding
US11973983B2 (en) Signaling coding scheme for residual values in transform skip for video coding
US20210092376A1 (en) Mode dependent block partition for lossless and mixed lossless and lossy video coding
JP2024500663A (en) Decoder side intra mode derivation for most probable mode list construction in video coding
JP2024501138A (en) Most probable mode for intra prediction in video coding
US11706425B2 (en) Multiple transform set signaling for video coding
US20220400257A1 (en) Motion vector candidate construction for geometric partitioning mode in video coding
US20230336716A1 (en) Intra chroma mode list construction for video coding
US20210176468A1 (en) Residual coding selection and low-level signaling based on quantization parameter
CN116724551A (en) Most probable mode of intra prediction for video coding