JP2021192510A - Video coding method, video coding device, computer readable storage medium, and computer programming product - Google Patents

Video coding method, video coding device, computer readable storage medium, and computer programming product Download PDF

Info

Publication number
JP2021192510A
JP2021192510A JP2021127431A JP2021127431A JP2021192510A JP 2021192510 A JP2021192510 A JP 2021192510A JP 2021127431 A JP2021127431 A JP 2021127431A JP 2021127431 A JP2021127431 A JP 2021127431A JP 2021192510 A JP2021192510 A JP 2021192510A
Authority
JP
Japan
Prior art keywords
reference image
prediction
current
intra
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021127431A
Other languages
Japanese (ja)
Other versions
JP7303255B2 (en
Inventor
シュウ,シャオユウ
Xiaoyu Xiu
チェン,イーウェン
Yi-Wen Chen
ワン,シャンリン
Xianglin Wang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Dajia Internet Information Technology Co Ltd
Original Assignee
Beijing Dajia Internet Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2021540266A external-priority patent/JP7223858B2/en
Application filed by Beijing Dajia Internet Information Technology Co Ltd filed Critical Beijing Dajia Internet Information Technology Co Ltd
Publication of JP2021192510A publication Critical patent/JP2021192510A/en
Priority to JP2022088741A priority Critical patent/JP2022119936A/en
Application granted granted Critical
Publication of JP7303255B2 publication Critical patent/JP7303255B2/en
Priority to JP2023133311A priority patent/JP2023156465A/en
Priority to JP2023138923A priority patent/JP2023162338A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

To provide a composite inter and intra-prediction (CIIP) method for video coding.SOLUTION: A video coding method includes obtaining first and second reference images associated with the current prediction block, generating first prediction L0 on the basis of a first motion vector MV0 from the current prediction block to a reference block in a first reference image, generating second prediction L1 on the basis of a second motion vector MV1 from the current prediction block to a reference block in a second reference image, identifying whether bidirectional optical flow (BDOF) operation applies, and calculating the double prediction for the current prediction block on the basis of the first prediction L0 and the second prediction L1, and first and second gradient values.SELECTED DRAWING: Figure 3

Description

本願は、2019年1月9日に出願された仮出願第62/790,421号に基づき優先
権を主張し、その全部の内容をここに援用する。
The present application claims priority based on provisional application No. 62 / 790,421 filed on January 9, 2019, the entire contents of which are incorporated herein by reference.

本願は、ビデオコーディングと圧縮に関するものである。より具体的には、本願は、ビ
デオコーディングのための複合インターとイントラ予測(CIIP)方法に関する方法お
よび装置に関するものである。
This application relates to video coding and compression. More specifically, the present application relates to methods and devices relating to composite inter and intra-prediction (CIIP) methods for video coding.

ビデオデータを圧縮するために、様々なビデオコーディング技術を使用することができ
る。ビデオコーディングは、1つまたは複数のビデオコーディング規格に従って実行され
る。たとえば、ビデオコーディング規格には、多用途ビデオコーディング(VVC)、共
同探査テストモデル(JEM)、高効率ビデオコーディング(H.265/HEVC)、高
度なビデオコーディング(H.264/AVC)、動画エキスパートグループ(MPEG)
コーディングなどが含まれる。ビデオコーディングは、一般に、ビデオ画像またはシーケ
ンスに存在する冗長性を利用する予測方法(例えば、インター予測、イントラ予測など)
を利用する。ビデオコーディング技術の重要な目標は、ビデオ品質の低下を回避または最
小限に抑えながら、ビデオデータを、より低いビットレートを使用する形式に圧縮するこ
とである。
Various video coding techniques can be used to compress the video data. Video coding is performed according to one or more video coding standards. For example, video coding standards include Versatile Video Coding (VVC), Joint Exploration Test Model (JEM), High Efficiency Video Coding (H.265 / HEVC), Advanced Video Coding (H.264 / AVC), Video Experts. Group (MPEG)
Coding etc. are included. Video coding is generally a predictive method that takes advantage of the redundancy present in a video image or sequence (eg, inter-prediction, intra-prediction, etc.).
To use. An important goal of video coding technology is to compress video data into a format that uses a lower bit rate while avoiding or minimizing video quality degradation.

本開示の例は、マージ関連モードの構文シグナリングの効率を改善するための方法を提
供する。
The examples in the present disclosure provide methods for improving the efficiency of syntactic signaling in merge-related modes.

Figure 2021192510
Figure 2021192510

本開示の第2の態様によれば、現在の予測ブロックに関連付けられる参照画像リスト内
の参照画像を取得することと、現在の画像から第1の参照画像への第1の動きベクトルに
基づいて、インター予測を生成することと、前記現在の予測ブロックに関連付けられるイ
ントラ予測モードを取得することと、前記イントラ予測に基づいて、前記現在の予測ブロ
ックのイントラ予測を生成することと、前記インター予測と前記イントラ予測を平均する
ことにより、前記現在の予測ブロックの最終予測を生成することと、前記現在の予測ブロ
ックが、最も可能性の高いモード(MPM)ベースのイントラモード予測に対して、イン
ターモードまたはイントラモードのどちらとして扱われるかを特定することと、を妥協す
るビデオコーディングの方法。
According to a second aspect of the present disclosure, it is based on obtaining a reference image in the reference image list associated with the current prediction block and a first motion vector from the current image to the first reference image. , To generate an inter-prediction, to acquire an intra-prediction mode associated with the current forecast block, to generate an intra-prediction of the current forecast block based on the intra-prediction, and to generate the inter-prediction. And by averaging the intra predictions to generate the final prediction of the current prediction block, and the current prediction block intersperses with the most likely mode (MPM) based intramode predictions. A method of video coding that compromises between identifying whether it is treated as mode or intra mode.

Figure 2021192510
Figure 2021192510

本開示の第4の態様によれば、インストラクションを記憶する非一時的なコンピュータ
可読記憶媒体が提供される。1つまたは複数のプロセッサによって実行されると、現在の
予測ブロックに関連付けられる参照画像リスト内の参照画像を取得することと、現在の画
像から第1の参照画像への第1の動きベクトルに基づいて、インター予測を生成すること
と、前記現在の予測ブロックに関連付けられるイントラ予測モードを取得することと、前
記イントラ予測に基づいて、前記現在の予測ブロックのイントラ予測を生成することと、
前記インター予測と前記イントラ予測を平均することにより、前記現在の予測ブロックの
最終予測を生成することと、前記現在の予測ブロックが、最も可能性の高いモード(MP
M)ベースのイントラモード予測に対して、インターモードまたはイントラモードのどち
らとして扱われるかを特定することと、を含む動作を、コンピューティングデバイスに実
行させる。
According to a fourth aspect of the present disclosure, a non-temporary computer-readable storage medium for storing instructions is provided. When run by one or more processors, it gets the reference image in the reference image list associated with the current prediction block and is based on the first motion vector from the current image to the first reference image. To generate an inter-prediction, to acquire an intra-prediction mode associated with the current forecast block, and to generate an intra-prediction of the current forecast block based on the intra-prediction.
By averaging the inter-prediction and the intra-prediction, the final prediction of the current prediction block is generated, and the current prediction block is the most probable mode (MP).
M) Have the computing device perform actions, including specifying whether the base intramode prediction is treated as intermode or intramode.

前述の一般的な説明および以下の詳細な説明の両方は単なる例であり、本開示を限定す
るものではないことを理解されたい。
It should be understood that both the general description above and the detailed description below are merely examples and are not intended to limit this disclosure.

本明細書に組み込まれ、その一部を構成する添付の図面は、本開示と一致する例を示し
、説明とともに、本開示の原理を説明するのに役立つ。
本開示の一例による、エンコーダのブロック図である。 本開示の一例による、デコーダのブロック図である。 本開示の一例による、複合インターとイントラ予測(CIIP)を生成するための方法を示すフローチャートである。 本開示の一例による、CIIPを生成するための方法を示すフローチャートである。 本開示の一例による、マルチタイプツリー構造におけるブロックパーティションを示す図である。 本開示の一例による、マルチタイプツリー構造におけるブロックパーティションを示す図である。 本開示の一例による、マルチタイプツリー構造におけるブロックパーティションを示す図である。 本開示の一例による、マルチタイプツリー構造におけるブロックパーティションを示す図である。 本開示の一例による、マルチタイプツリー構造におけるブロックパーティションを示す図である。 本開示の一例による、複合インターとイントラ予測(CIIP)を示す図である。 本開示の一例による、複合インターとイントラ予測(CIIP)を示す図である。 本開示の一例による、複合インターとイントラ予測(CIIP)を示す図である。 本開示の一例による、MPM候補リスト生成プロセスのフローチャートである。 本開示の一例による、MPM候補リスト生成プロセスのフローチャートである。 本開示の一例による、VVCにおける既存のCIIPデザインのワークフローを示す図である。 本開示の一例による、BDOFを除去することによる提案されたCIIP方法のワークフローを示す図である。 本開示の一例による、POC距離に基づいて予測リストを選択する、単一予測ベースのCIIPのワークフローを示す図である。 本開示の一例による、MPM候補リスト生成のためにCIIPブロックを有効にするときの方法のフローチャートである。 本開示の一例による、MPM候補リスト生成のためにCIIPブロックを無効にするときの方法のフローチャートである。 本開示の一例による、ユーザインターフェースと結合されたコンピューティング環境を示す図である。
The accompanying drawings incorporated and in part thereof herein provide examples consistent with the present disclosure and, along with explanations, serve to explain the principles of the present disclosure.
It is a block diagram of an encoder according to an example of this disclosure. It is a block diagram of a decoder according to an example of this disclosure. It is a flowchart which shows the method for generating a compound inter and an intra prediction (CIIP) by an example of this disclosure. It is a flowchart which shows the method for generating CIIP by one example of this disclosure. It is a figure which shows the block partition in the multi-type tree structure by an example of this disclosure. It is a figure which shows the block partition in the multi-type tree structure by an example of this disclosure. It is a figure which shows the block partition in the multi-type tree structure by an example of this disclosure. It is a figure which shows the block partition in the multi-type tree structure by an example of this disclosure. It is a figure which shows the block partition in the multi-type tree structure by an example of this disclosure. It is a figure which shows the composite inter and the intra prediction (CIIP) by an example of this disclosure. It is a figure which shows the composite inter and the intra prediction (CIIP) by an example of this disclosure. It is a figure which shows the composite inter and the intra prediction (CIIP) by an example of this disclosure. It is a flowchart of the MPM candidate list generation process by an example of this disclosure. It is a flowchart of the MPM candidate list generation process by an example of this disclosure. It is a figure which shows the workflow of the existing CIIP design in VVC by an example of this disclosure. It is a figure which shows the workflow of the proposed CIIP method by removing BDOF by one example of this disclosure. FIG. 6 illustrates a single prediction-based CIIP workflow that selects a prediction list based on POC distance, according to an example of the present disclosure. It is a flowchart of the method when the CIIP block is enabled for MPM candidate list generation by an example of this disclosure. It is a flowchart of the method when the CIIP block is invalidated for MPM candidate list generation by an example of this disclosure. It is a figure which shows the computing environment combined with the user interface by an example of this disclosure.

ここで、本開示の例を詳細に参照し、その例を添付の図面に示す。以下の説明は、別段
の記載がない限り、異なる図面における同じ番号が同じまたは類似の要素を表す添付の図
面を参照している。本開示の例の以下の説明に記載されている実施の形態は、本開示と一
致するすべての実施の形態を表すわけではない。その代わり、それらは、添付の特許請求
の範囲に記載されている本開示に関連する態様と一致する装置および方法の単なる例であ
る。
Here, an example of the present disclosure is referred to in detail and an example is shown in the accompanying drawings. The following description refers to the accompanying drawings in which the same numbers represent the same or similar elements in different drawings, unless otherwise stated. The embodiments described in the following description of the examples of the present disclosure do not represent all embodiments consistent with the present disclosure. Instead, they are merely examples of devices and methods consistent with the aspects of the present disclosure described in the appended claims.

本開示で使用される用語は、特定の実施の形態を説明することのみを目的としており、
本開示を限定することを意図するものではない。本開示および添付の特許請求の範囲で使
用されるように、単数形「a」、「an」、および「the」は、文脈で明確に示されていない
限り、複数形も含むことを意図している。ここで使用される「および/または」という用
語は、関連するリストされたアイテムの1つまたは複数の任意またはすべての可能な組み
合わせを意味し、含むことを意図することも理解されたい。
The terminology used in this disclosure is intended solely to describe a particular embodiment.
It is not intended to limit this disclosure. As used in this disclosure and the appended claims, the singular forms "a,""an," and "the" are intended to include the plural unless explicitly stated in the context. ing. It should also be understood that the term "and / or" as used herein means and is intended to include any or all possible combinations of one or more of the related listed items.

ここで、「第1」、「第2」、「第3」などの用語を使用して様々な情報を説明するこ
とができるが、情報はこれらの用語によって限定されるべきではないことを理解されたい
。これらの用語は、あるカテゴリの情報を別のカテゴリと区別するためにのみ使用される
。例えば、本開示の範囲から逸脱することなく、第1の情報は、第2の情報と呼ばれるこ
とができ、同様に、第2の情報は、第1の情報と呼ばれることもできる。ここで使用され
る場合、「もし」という用語は、文脈に応じて、「ときに」または「に際して」または「
判断に応じて」を意味すると理解され得る。
Here, various information can be described using terms such as "first", "second", "third", but it is understood that the information should not be limited by these terms. I want to be. These terms are used only to distinguish information in one category from another. For example, without departing from the scope of the present disclosure, the first information may be referred to as the second information, and similarly, the second information may be referred to as the first information. As used herein, the term "if" means "when" or "at the time" or "if", depending on the context.
It can be understood to mean "according to judgment".

HEVC規格の第1のバージョンは、2013年10月に完成し、これは、前世代のビ
デオコーディング規格H.264/MPEG AVCと比較して、約50%のビットレー
ト節約または同等の知覚品質を提供する。HEVC規格は、その前身よりも大幅なコーデ
ィングの改善を提供しているが、HEVCにコーディングツールを追加することで、優れ
たコーディング効率を達成できるという証拠がある。これに基づいて、VCEGとMPE
Gの両方が、将来のビデオコーディング標準化のための新しいコーディングテクノロジー
の調査作業を開始した。コーディング効率の大幅な向上を可能にする高度なテクノロジー
の重要な研究が開始されるために、2015年10月に、ITU-TVECGとISO/IE
C MPEGによって1つのJoint Video Exploration Team(JVET)が結成され
た。共同探査モデル(JEM)と呼ばれる1つの参照ソフトウェアは、HEVCテストモ
デル(HM)の上にいくつかの追加のコーディングツールを統合することにより、JVE
Tによって維持されていた。
The first version of the HEVC standard was completed in October 2013, which is the previous generation video coding standard H.D. It offers about 50% bitrate savings or equivalent perceptual quality compared to 264 / MPEG AVC. Although the HEVC standard offers significant coding improvements over its predecessor, there is evidence that adding coding tools to HEVC can achieve superior coding efficiency. Based on this, VCEG and MPE
Both G have begun exploring new coding technologies for future video coding standardization. ITU-TVECG and ISO / IE in October 2015 to begin critical research on advanced technologies that can significantly improve coding efficiency.
One Joint Video Exploration Team (JVET) was formed by C MPEG. One reference software, called the Joint Exploration Model (JEM), integrates several additional coding tools on top of the HEVC Test Model (HM) to JVE.
It was maintained by T.

2017年10月に、HEVCを超える機能を備えたビデオ圧縮に関する共同提案募集
(CfP)が、ITU-TおよびISO/IECによって発行された。2018年4月に、第
10回JVET会議で、23のCfP応答が受信され評価され、HEVCよりも約40%
の圧縮効率ゲインが実証された。このような評価結果に基づいて、JVETは、Versatil
e Video Coding(VVC)と呼ばれる新世代のビデオコーディング規格を開発するため
の新しいプロジェクトを立ち上げた。同じ月に、VVC規格の参照実装を実証するために
、VVCテストモデル(VTM)と呼ばれる1つの参照ソフトウェアコードベースが確立
された。
In October 2017, the Joint Proposal Call for Video Compression (CfP) with features beyond HEVC was published by ITU-T and ISO / IEC. In April 2018, at the 10th JVET meeting, 23 CfP responses were received and evaluated, about 40% more than HEVC.
The compression efficiency gain of was demonstrated. Based on such evaluation results, JVET is Versatil.
He has launched a new project to develop a new generation of video coding standards called e Video Coding (VVC). In the same month, a reference software code base called the VVC Test Model (VTM) was established to demonstrate the reference implementation of the VVC standard.

HEVCと同様に、VVCは、ブロックベースのハイブリッドビデオコーディングフレ
ームワーク上に構成されている。図1(以下に説明)は、一般的なブロックベースのハイ
ブリッドビデオ符号化システムのブロック図を与える。入力ビデオ信号は、ブロック(コ
ーディングユニット(CU)と呼ばれる。)ごとに処理される。VTM-1.0では、C
Uは最大128x128ピクセルにすることができる。ただし、クアッドツリーのみに基
づいてブロックを区分するHEVCとは異なり、VVCでは、クアッド/二元/ターナリー
ツリーに基づくさまざまなローカル特性に適応するために、1つのコーディングツリーユ
ニット(CTU)がCUに分割される。さらに、HEVCにおける複数のパーティション
ユニットタイプの概念が除去され、つまり、CUと予測ユニット(PU)と変換ユニット
(TU)の分離がVVCに存在しなくなり、その代わりに、各CUは常に、追加のパーテ
ィションなしで予測と変換の両方の基本単位として使用される。マルチタイプツリー構造
では、1つのCTUが最初にクアッドツリー構造によって区分される。次に、各クアッド
ツリーリーフノードが二元およびターナリツリー構造でさらに区分されることができる。
図図5A、図5B、図5C、図5D、図5D、図5E(以下で説明する。)に示すように
、それぞれ、四元パーティショニング、水平二元パーティショニング、垂直二元パーティ
ショニング、水平三元パーティショニング、および垂直三元パーティショニングの5つの
分割タイプがある。
Like HEVC, VVC is built on a block-based hybrid video coding framework. FIG. 1 (described below) gives a block diagram of a typical block-based hybrid video coding system. The input video signal is processed block by block (called a coding unit (CU)). In VTM-1.0, C
U can be up to 128x128 pixels. However, unlike HEVC, which divides blocks based solely on the quad tree, VVC has one coding tree unit (CTU) CU to adapt to various local characteristics based on the quad / dual / turnary tree. It is divided into. In addition, the concept of multiple partition unit types in HEVC has been removed, that is, the separation of CUs and predictive units (PUs) and conversion units (TUs) no longer exists in VVCs, instead each CU always has additional partitions. Used as the basic unit for both prediction and transformation without. In a multi-type tree structure, one CTU is first separated by a quad tree structure. Each quadtree leaf node can then be further subdivided in a binary and turnary tree structure.
As shown in FIGS. 5A, 5B, 5C, 5D, 5D, and 5E (described below), quaternary partitioning, horizontal binary partitioning, vertical binary partitioning, and horizontal, respectively. There are five division types: ternary partitioning and vertical ternary partitioning.

図1(以下に説明)では、空間予測および/または時間予測を実行することができる。
空間予測(または「イントラ予測」)は、同一のビデオ画像/スライスにおけるすでにコ
ーディングされた隣接ブロックのサンプル(参照サンプルと呼ばれる。)からのピクセル
を使用して、現在のビデオブロックを予測する。空間予測は、ビデオ信号に固有の空間的
冗長性を低減する。時間予測(「インター予測」または「動き補償予測」とも呼ばれる。
)は、すでにコーディングされたビデオ画像からの再構成されたピクセルを使用して、現
在のビデオブロックを予測する。時間予測は、ビデオ信号に固有の時間的冗長性を低減す
る。特定のCUについての時間予測信号は、通常、現在のCUとその時間参照との間の動
きの量と方向を示す1つまたは複数の動きベクトル(MV)によってシグナリングされる
。また、複数の参照画像がサポートされている場合には、1つの参照画像インデックスが
追加で送信される。これは、時間予測信号が参照画像ストアにおけるどの参照画像から来
るかを識別するために使用される。空間予測および/または時間予測の後、エンコーダに
おけるモード決定ブロックは、例えば、レート歪み最適化方法に基づいて、最適な予測モ
ードを選択する。次に、予測ブロックは、現在のビデオブロックから差し引かれ、予測残
差は、変換と量子化を使用して無相関化される。
In FIG. 1 (described below), spatial and / or temporal predictions can be performed.
Spatial prediction (or "intra prediction") uses pixels from a sample of already coded adjacent blocks (called a reference sample) in the same video image / slice to predict the current video block. Spatial prediction reduces the spatial redundancy inherent in video signals. Time prediction (also called "inter-prediction" or "motion compensation prediction".
) Predicts the current video block using the reconstructed pixels from the already coded video image. Time prediction reduces the time redundancy inherent in video signals. The time prediction signal for a particular CU is usually signaled by one or more motion vectors (MVs) indicating the amount and direction of motion between the current CU and its time reference. Further, when a plurality of reference images are supported, one reference image index is additionally transmitted. It is used to identify from which reference image the time prediction signal comes from in the reference image store. After spatial and / or time prediction, the mode determination block in the encoder selects the optimal prediction mode, for example, based on a rate distortion optimization method. The predictive block is then subtracted from the current video block and the predictive residuals are uncorrelated using transformation and quantization.

量子化された残差係数は、逆量子化と逆変換されて、再構成された残差を形成し、次に
予測ブロックに追加されて、CUの再構成された信号を形成する。デブロッキングフィル
ター、サンプルアダプティブオフセット(SAO)、アダプティブインループフィルター
(ALF)などのさらなるインループフィルタリングは、参照画像ストアに配置され将来
のビデオブロックのコーディングに使用される前に、再構成されたCUに適用できる。出
力ビデオビットストリームを形成するために、コーディングモード(インターまたはイン
トラ)、予測モード情報、動き情報、および量子化された残差係数は、すべてエントロピ
ーコーディングユニットに送信され、さらに圧縮およびパックされてビットストリームを
形成する。
The quantized residual coefficients are inversely transformed with the inverse quantization to form the reconstructed residuals, which are then added to the prediction block to form the reconstructed signal of the CU. Further in-loop filtering, such as deblocking filters, sample adaptive offsets (SAOs), and adaptive in-loop filters (ALFs), were reconfigured before being placed in the reference image store and used to code future video blocks. Can be applied to. To form the output video bitstream, the coding mode (inter or intra), predictive mode information, motion information, and quantized residual coefficients are all sent to the entropy coding unit and further compressed and packed into bits. Form a stream.

図2(以下に説明)は、ブロックベースのビデオデコーダの一般的なブロック図を示す
。ビデオビットストリームは、最初にエントロピーデコードユニットでエントロピーデコ
ードされる。コーディングモードおよび予測情報は、空間予測ユニット(イントラコーデ
ィングされている場合)または時間予測ユニット(インターコーディングされている場合
)のいずれかに送信されて、予測ブロックを形成する。残差変換係数は、逆量子化ユニッ
トと逆変換ユニットに送信されて、残差ブロックを再構成する。次に、予測ブロックと残
差ブロックは、一緒に加算される。再構成されたブロックは、参照画像ストアに格納され
る前に、インループフィルタリングをさらに通過することができる。次に、参照画像スト
アにおける再構成されたビデオは、ディスプレイデバイスを駆動するために送出され、将
来のビデオブロックを予測するためにも使用される。
FIG. 2 (described below) shows a typical block diagram of a block-based video decoder. The video bitstream is first entropy-decoded by the entropy-decoding unit. Coding modes and prediction information are transmitted to either the spatial prediction unit (if intracoded) or the time prediction unit (if intercoded) to form a prediction block. The residual transformation factor is transmitted to the inverse quantization unit and the inverse transformation unit to reconstruct the residual block. Next, the prediction block and the residual block are added together. The reconstructed block can go through further in-loop filtering before being stored in the reference image store. The reconstructed video in the reference image store is then sent out to drive the display device and is also used to predict future video blocks.

図1は、典型的なエンコーダ100を示す。エンコーダ100は、ビデオ入力110、
動き補償112、動き推定114、イントラ/インターモード決定116、ブロック予測
器140、加算器128、変換130、量子化132、予測関連情報142、イントラ予
測118、画像バッファ120、逆量子化134、逆変換136、加算器126、メモリ
124、インループフィルタ122、エントロピーコーディング138、およびビットス
トリーム144を有する。
FIG. 1 shows a typical encoder 100. The encoder 100 has a video input 110,
Motion compensation 112, motion estimation 114, intra / intermode determination 116, block predictor 140, adder 128, conversion 130, quantization 132, prediction related information 142, intra prediction 118, image buffer 120, dequantization 134, reverse It has a conversion 136, an adder 126, a memory 124, an in-loop filter 122, an entropy coding 138, and a bitstream 144.

図2は、典型的なデコーダ200のブロック図を示す。デコーダ200は、ビットスト
リーム210、エントロピーデコード212、逆量子化214、逆変換216、加算器2
18、イントラ/インターモード選択220、イントラ予測222、メモリ230、イン
ループフィルタ228、動き補償224、画像バッファ226、予測関連情報234、お
よびビデオ出力232を有する。
FIG. 2 shows a block diagram of a typical decoder 200. The decoder 200 includes a bitstream 210, an entropy decode 212, an inverse quantization 214, an inverse transformation 216, and an adder 2.
It has 18, intra / intermode selection 220, intra prediction 222, memory 230, in-loop filter 228, motion compensation 224, image buffer 226, prediction related information 234, and video output 232.

図3は、本開示による、複合インターとイントラ予測(CIIP)を生成するための例
示的な方法300を示す。
FIG. 3 shows an exemplary method 300 for generating compound inter and intra-prediction (CIIP) according to the present disclosure.

ステップ310において、現在の予測ブロックに関連付けられる第1の参照画像と第2
の参照画像を取得する。ここで、第1の参照画像は表示順で現在の画像の前にあり、第2
の参照画像は表示順で現在の画像の後にある。
In step 310, the first reference image and the second associated with the current prediction block.
Get the reference image of. Here, the first reference image is in front of the current image in display order and is second.
The reference image of is after the current image in display order.

ステップ312において、現在の予測ブロックから第1の参照画像内の参照ブロックへ
の第1の動きベクトルMV0に基づいて、第1の予測L0を取得する。
In step 312, the first prediction L0 is acquired based on the first motion vector MV0 from the current prediction block to the reference block in the first reference image.

ステップ314において、現在の予測ブロックから第2の参照画像内の参照ブロックへ
の第2の動きベクトルMV1に基づいて、第2の予測L1を取得する。
In step 314, a second prediction L1 is acquired based on the second motion vector MV1 from the current prediction block to the reference block in the second reference image.

Figure 2021192510
Figure 2021192510

Figure 2021192510
Figure 2021192510

図4は、本開示による、CIIPを生成するための例示的な方法を示す。たとえば、当
該方法は、CIIPを生成するために、単一予測ベースのインター予測とMPMベースの
イントラ予測が含まれる。
FIG. 4 shows an exemplary method for generating CIIP according to the present disclosure. For example, the method includes single prediction-based inter-prediction and MPM-based intra-prediction to generate CIIP.

ステップ410において、現在の予測ブロックに関連付けられる参照画像リストにおけ
る参照画像を取得する。
In step 410, the reference image in the reference image list associated with the current prediction block is acquired.

ステップ412において、現在の画像から第1の参照画像への第1の動きベクトルに基
づいて、インター予測を生成する。
In step 412, an inter-prediction is generated based on the first motion vector from the current image to the first reference image.

ステップ414において、現在の予測ブロックに関連付けられるイントラ予測モードを
取得する。
In step 414, the intra prediction mode associated with the current prediction block is acquired.

ステップ416において、イントラ予測に基づいて、現在の予測ブロックのイントラ予
測を生成する。
In step 416, an intra prediction for the current prediction block is generated based on the intra prediction.

ステップ418において、インター予測とイントラ予測を平均することにより、現在の
予測ブロックの最終予測を生成する。
In step 418, the final prediction of the current prediction block is generated by averaging the inter-forecast and the intra-forecast.

ステップ420において、現在の予測ブロックが、最も可能性の高いモード(MPM)
ベースのイントラモード予測について、インターモードまたはイントラモードのどちらと
して扱われるかを特定する。
In step 420, the current prediction block is the most likely mode (MPM).
Identify whether the base intramode prediction is treated as intermode or intramode.

図5Aは、本開示の一例による、マルチタイプツリー構造におけるブロック四元パーテ
ィションを示す図を示す。
FIG. 5A shows a diagram showing a block quaternary partition in a multitype tree structure according to an example of the present disclosure.

図5Bは、本開示の一例による、マルチタイプツリー構造におけるブロック垂直二元パ
ーティションを示す図を示す。
FIG. 5B shows a block vertical binary partition in a multitype tree structure according to an example of the present disclosure.

図5Cは、本開示の一例による、マルチタイプツリー構造におけるブロック水平二元パ
ーティションを示す図を示す。
FIG. 5C shows a block horizontal binary partition in a multitype tree structure according to an example of the present disclosure.

図5Dは、本開示の一例による、マルチタイプツリー構造におけるブロック垂直三元パ
ーティションを示す図を示す。
FIG. 5D shows a block vertical ternary partition in a multitype tree structure according to an example of the present disclosure.

図5Eは、本開示の一例による、マルチタイプツリー構造におけるブロック水平三元パ
ーティションを示す図を示す。
FIG. 5E shows a block horizontal ternary partition in a multitype tree structure according to an example of the present disclosure.

複合インターとイントラ予測
図1、図2に示されるように、インターとイントラ予測方法は、ハイブリッドビデオコ
ーディングスキームで使用される。ここで、各PUは、時間域または空間域のいずれかの
みで、相関性を利用するために、インター予測またはイントラ予測を選択することが許可
され、両方ではできない。ただし、従来の文献で指摘されているように、インター予測ブ
ロックとイントラ予測ブロックによって生成された残差信号は、互いに非常に異なる特性
を示す可能性がある。したがって、2種類の予測を効率的に組み合わせることができれば
、予測残差のエネルギーを削減してコーディング効率を向上させるために、もう1つの正
確な予測が期待できる。さらに、自然なビデオコンテンツでは、動くオブジェクトの動き
が複雑になる可能性がある。たとえば、古いコンテンツ(たとえば、以前にコーディング
された画像に含まれるオブジェクト)と新たな新しいコンテンツ(たとえば、以前にコー
ディングされた画像で除外されるオブジェクト)の両方を含む領域が存在する可能性があ
る。このようなシナリオでは、インター予測も、イントラ予測も、現在のブロックの1つ
の正確な予測を提供できない。
Composite Inter and Intra Prediction As shown in FIGS. 1 and 2, the inter and intra prediction method is used in a hybrid video coding scheme. Here, each PU is allowed to choose between inter-prediction or intra-prediction to take advantage of correlation, either in the time domain or in the spatial domain, not both. However, as pointed out in the conventional literature, the residual signals generated by the inter-prediction block and the intra-prediction block may exhibit very different characteristics from each other. Therefore, if the two types of predictions can be efficiently combined, another accurate prediction can be expected in order to reduce the energy of the prediction residuals and improve the coding efficiency. In addition, natural video content can complicate the movement of moving objects. For example, there may be areas that contain both old content (for example, objects contained in previously coded images) and new new content (for example, objects excluded in previously coded images). .. In such a scenario, neither inter-prediction nor intra-prediction can provide an accurate prediction for one of the current blocks.

予測効率をさらに改善するために、VVC規格には、マージモードによってコーディン
グされた1つのCUのイントラ予測とインター予測を組み合わせる複合インターとイント
ラ予測(CIIP)が採用されている。具体的には、マージCUごとに、1つの追加フラ
グは、CIIPが現在のCUに対して有効になっているかどうかを示すために、シグナリ
ングされる。輝度コンポーネントに対して、CIIPは、平面モード、DCモード、水平
モード、垂直モードを含む頻繁に使用される4つのイントラモードをサポートする。彩度
コンポーネントに対して、DM(つまり、彩度は、輝度コンポーネントの同じイントラモ
ードを再利用する)は、追加のシグナリングなしで常に適用される。さらに、既存のCI
IPデザインでは、加重平均が適用され、1つのCIIP CUのインター予測サンプル
とイントラ予測サンプルが結合される。具体的には、平面モードまたはDCモードが選択
されている場合において、等しい重み(つまり、0.5)が適用される。それ以外の場合
(つまり、水平モードまたは垂直モードのいずれかが適用される。)、現在のCUは最初
に水平(水平モードの場合)または垂直(垂直モードの場合)に4つの同じサイズの領域
に分割される。
To further improve predictive efficiency, the VVC standard employs compound inter and intra-prediction (CIIP), which combines intra-prediction and inter-prediction of one CU coded by merge mode. Specifically, for each merge CU, one additional flag is signaled to indicate whether CIIP is enabled for the current CU. For luminance components, CIIP supports four frequently used intramodes, including planar mode, DC mode, horizontal mode, and vertical mode. For the saturation component, DM (ie, saturation reuses the same intramode of the luminance component) is always applied without any additional signaling. In addition, the existing CI
In IP design, a weighted average is applied and one CIIP CU inter-prediction sample and intra-prediction sample are combined. Specifically, when planar mode or DC mode is selected, equal weights (ie, 0.5) are applied. Otherwise (that is, either horizontal or vertical mode applies), the current CU is initially horizontal (in horizontal mode) or vertical (in vertical mode) four areas of the same size. It is divided into.

Figure 2021192510
Figure 2021192510

さらに、現在のVVC動作仕様では、1つのCIIP CUのイントラモードが、最も
可能性の高いモード(MPM)メカニズムを介して、その隣接するCIIP CUのイン
トラモードを予測するための予測子として使用されることができる。具体的には、各CI
IP CUについて、その隣接するブロックもCIIP CUである場合において、それ
らの隣接ブロックのイントラモードは、最初に、平面モード、DCモード、水平モード、
および垂直モード内の最も近いモードに丸められ、次に、現在のCUのMPM候補リスト
に追加される。ただし、各イントラCUのMPMリストを構成するときには、その隣接す
るブロックの1つは、CIIPモードでコーディングされていると、使用不可と見なされ
る。つまり、1つのCIIP CUのイントラモードは、その隣接するイントラCUのイ
ントラモードを予測することを許可されていない。図7Aと図7B(以下で説明する)は
、イントラCUとCIIP CUのMPMリスト生成プロセスを比較する。
In addition, in the current VVC operating specification, the intramode of one CIIP CU is used as a predictor to predict the intramode of its adjacent CIIP CU via the most likely mode (MPM) mechanism. Can be done. Specifically, each CI
For IP CUs, where the adjacent blocks are also CIIP CUs, the intramodes of those adjacent blocks are initially planar mode, DC mode, horizontal mode, and so on.
And rounded to the nearest mode in vertical mode, then added to the current CU's MPM candidate list. However, when constructing the MPM list for each intra-CU, one of its adjacent blocks is considered unusable if it is coded in CIIP mode. That is, the intramode of one CIIP CU is not allowed to predict the intramode of its adjacent intra-CU. 7A and 7B (discussed below) compare the MPM list generation processes of the intra-CU and CIIP CU.

Figure 2021192510
Figure 2021192510

Figure 2021192510
Figure 2021192510

Figure 2021192510
Figure 2021192510

Figure 2021192510
Figure 2021192510

ここで、shiftとooffsetは、それぞれ、15-BDと1≪(14-BD)+2・(1≪13
)に等しく、二重予測のL0とL1予測信号を組み合わせるために適用される右シフト値
とオフセット値である。
Here, shift and o offset are 15-BD and 1 << (14-BD) + 2 · (1 << 13 respectively).
), Which is the right shift value and offset value applied to combine the L0 and L1 prediction signals of the double prediction.

図6Aは、本開示の一例による、水平モードの複合インターとイントラ予測を示す図を
示す。
FIG. 6A shows a diagram showing a horizontal mode composite inter and intra prediction according to an example of the present disclosure.

図6Bは、本開示の一例による、垂直モードの複合インターとイントラ予測を示す図を
示す。
FIG. 6B shows a diagram showing a composite inter and intra prediction in vertical mode according to an example of the present disclosure.

図6Cは、本開示の一例による、平面モードとDCモードの複合インターとイントラ予
測を示す図を示す。
FIG. 6C shows a diagram showing a composite inter and intra prediction of planar mode and DC mode according to an example of the present disclosure.

図7Aは、本開示の一例による、イントラCUSのMPM候補リスト生成プロセスのフ
ローチャートを示す。
FIG. 7A shows a flowchart of the MPM candidate list generation process of the intra-CUS according to an example of the present disclosure.

図7Bは、本開示の一例による、CIIP CUのMPM候補リスト生成プロセスのフ
ローチャートを示す。
FIG. 7B shows a flowchart of the MPM candidate list generation process of CIIP CU according to an example of the present disclosure.

CIIPに対する改善
CIIPは、従来の動き補償予測の効率を高めることができるが、そのデザインをさら
に改善することができる。具体的には、VVCにおける既存のCIIPデザインにおける
以下の問題は、本開示で識別されている。
Improvements to CIIP CIIP can increase the efficiency of conventional motion compensation prediction, but can further improve its design. Specifically, the following issues in the existing CIIP design in VVC are identified in this disclosure.

まず、「複合インターとイントラ予測」のセクションで説明したように、CIIPは、
インターとイントラ予測のサンプルを組み合わせるため、各CIIP CUは、その再構
成された隣接サンプルを使用して予測信号を生成する必要がある。これは、1つのCII
P CUのデコードが、その隣接ブロックの完全な再構成に依存していることを意味する
。このような相互依存性のため、実際のハードウェア実装では、CIIPは、隣接する再
構成されたサンプルがイントラ予測に利用できるようになる再構成段階で実行する必要が
ある。再構成段階でのCUのデコードは、順次に(つまり、1つずつ)実行しなければな
らないため、CIIPプロセスに含まれる計算演算(例えば、乗算、加算、ビットシフト
)の数は、リアルタイムデコードの十分なスループットを確保するために、高すぎるもの
とすることができない。
First, as explained in the section "Composite Inter and Intra Prediction", CIIP
In order to combine the inter and intra prediction samples, each CIIP CU needs to generate a prediction signal using its reconstructed adjacent sample. This is one CII
It means that the decoding of PCU depends on the complete reconstruction of its adjacent blocks. Due to these interdependencies, in a real hardware implementation, CIIP needs to be performed during the reconfiguration phase when adjacent reconstructed samples are available for intra-prediction. Since the CU decoding at the reconstruction stage must be performed sequentially (ie, one at a time), the number of computational operations (eg, multiplication, addition, bit shift) included in the CIIP process is real-time decoding. It cannot be too high to ensure sufficient throughput.

「双方向オプティカルフロー」のセクションで述べたように、BDOFは、前方および
後方の両方の時間方向からの2つの参照ブロックから、1つのインターコーディングされ
たCUが予測されるときに、予測品質が向上するように、有効にされる。図8(以下に説
明)に示すように、現在のVVCでは、BDOFも、CIIPモードのインター予測サン
プルを生成するために関与している。BDOFによるさらなる複雑性を考えると、このよ
うなデザインは、CIIPが有効にされる場合、ハードウェアコーデックのエンコード/
デコードスループットが大幅に低下する可能性がある。
As mentioned in the "Bidirectional Optical Flow" section, BDOF has predictive quality when one intercoded CU is predicted from two reference blocks from both anterior and posterior temporal directions. Enabled to improve. As shown in FIG. 8 (described below), in current VVCs, BDOF is also involved in producing inter-prediction samples in CIIP mode. Given the further complexity of BDOF, such a design would be a hardware codec encoding / if CIIP is enabled.
Decoding throughput can be significantly reduced.

次に、現在のCIIPデザインでは、1つのCIIP CUが、二重予測される1つの
マージ候補を参照する場合に、リストL0およびL1の両方の動き補償予測信号を生成す
る必要がある。1つまたは複数のMVが整数精度でない場合においては、部分的なサンプ
ル位置でサンプルを補間するために、追加の補間プロセスを呼び出しなければならない。
このようなプロセスは、計算上の複雑さを増すだけでなく、外部メモリからより多くの参
照サンプルにアクセスする必要がある場合、メモリ帯域幅も増やす。
Next, in the current CIIP design, when one CIIP CU refers to one double-predicted merge candidate, it is necessary to generate both motion compensation prediction signals of lists L0 and L1. If one or more MVs are not integer precision, an additional interpolation process must be called to interpolate the sample at the partial sample position.
Not only does such a process add computational complexity, but it also increases memory bandwidth if more reference samples need to be accessed from external memory.

それから、「複合インターとイントラ予測」のセクションで論じたように、現在のCI
IPデザインでは、CIIP CUのイントラモードとイントラCUのイントラモードは
、それらの隣接ブロックのMPMリストを構成するときに異なって扱われる。具体的には
、1つの現在のCUがCIIPモードでコーディングされている場合には、その隣接する
CIIP CUは、イントラと見なされ、つまり、隣接するCIIP CUのイントラモ
ードがMPM候補リストに追加されることができる。ただし、現在のCUがイントラモー
ドでコーディングされている場合には、その隣接するCIIP CUは、インターと見な
され、つまり、隣接するCIIP CUのイントラモードがMPM候補リストから除外さ
れている。このような統一されていないデザインは、VVC規格の最終バージョンに最適
でない可能性がある。
Then, as discussed in the section "Composite Inter and Intra Prediction", the current CI
In IP design, the intra-mode of the CIIP CU and the intra-mode of the intra-CU are treated differently when constructing the MPM list of their adjacent blocks. Specifically, if one current CU is coded in CIIP mode, the adjacent CIIP CU is considered intra, that is, the intra mode of the adjacent CIIP CU is added to the MPM candidate list. Can be However, if the current CU is coded in intramode, the adjacent CIIP CU is considered inter, that is, the intramode of the adjacent CIIP CU is excluded from the MPM candidate list. Such a non-uniform design may not be optimal for the final version of the VVC standard.

図8は、本開示の一例による、VVCにおける既存のCIIPデザインのワークフロー
を示す図を示す。
FIG. 8 shows a diagram showing an existing CIIP design workflow in VVC according to an example of the present disclosure.

CIIPの単純化
本開示では、ハードウェアコーデック実装を容易にするために既存のCIIPデザイン
を単純化するための方法が提供される。一般に、本開示で提案される技術の主なアスペク
トは、以下のように要約される。
Simplification of CIIP This disclosure provides a method for simplifying an existing CIIP design to facilitate hardware codec implementation. In general, the main aspects of the technique proposed in this disclosure are summarized as follows.

まず、CIIPコーディング/デコードスループットを改善するために、CIIPモー
ドでのインター予測サンプルの生成からBDOFを除外することが提案される。
First, it is proposed to exclude BDOF from the generation of interpredicted samples in CIIP mode in order to improve CIIP coding / decoding throughput.

次に、計算上の複雑さおよびメモリ帯域幅の消費を低減するためには、1つのCIIP
CUが二重予測される(すなわち、L0およびL1 MVの両方を有する)場合におい
ては、インター予測サンプルを生成するために、ブロックを二重予測から単一予測に変換
する方法が提案される。
Second, to reduce computational complexity and memory bandwidth consumption, one CIIP
When the CU is double-predicted (ie, has both L0 and L1 MV), a method of converting the block from double-predicted to single-predicted is proposed to generate an inter-predicted sample.

それから、2つの方法は、隣接するブロックのMPM候補を形成するときに、イントラ
CUとCIIPのイントラモードを調和させるために提案される。
Then, two methods are proposed to reconcile the intramodes of the intra-CU and CIIP when forming MPM candidates for adjacent blocks.

BDOFのないCIIP
「問題ステートメント」のセクションで指摘されているように、BDOFは、現在のC
Uが二重予測されるとき、CIIPモードについてのインター予測サンプルを生成するよ
うに、常に有効にされている。BDOFのさらなる複雑さのため、既存のCIIPデザイ
ンは、エンコード/デコードスループットが大幅に低下する可能性があり、特に、リアル
タイムデコードがVVCデコーダーに対して困難になる可能性がある。一方、CIIP
CUについては、その最終予測サンプルは、インター予測サンプルとイントラ予測サンプ
ルを平均することによって生成される。言い換えると、BDOFによる改良した予測サン
プルは、CIIP CUの予測信号として直接使用されない。したがって、従来の二重予
測CU(ここで、BDOFは、予測サンプルを生成するために直接に適用される)と比較
すると、BDOFから得られる対応する改善はCIIP CUでは効率が低くなる。した
がって、上記の事情に基づいて、CIIPモードのインター予測サンプルを生成するとき
にBDOFを無効にすることが提案される。図9(以下に説明)は、BDOFを除去した
後の提案されたCIIPプロセスの対応するワークフローを示す。
CIIP without BDOF
As pointed out in the "Problem Statement" section, BDOF is the current C.
When U is double-predicted, it is always enabled to generate an inter-prediction sample for CIIP mode. Due to the additional complexity of BDOF, existing CIIP designs can significantly reduce encoding / decoding throughput, especially real-time decoding can be difficult for VVC decoders. On the other hand, CIIP
For CU, the final predicted sample is generated by averaging the inter-predicted sample and the intra-predicted sample. In other words, the improved prediction sample by BDOF is not used directly as the prediction signal of CIIP CU. Therefore, the corresponding improvements obtained from BDOF are less efficient in CIIP CU as compared to traditional double predictive CUs, where BDOF is applied directly to generate predictive samples. Therefore, based on the above circumstances, it is proposed to disable BDOF when generating an inter-prediction sample in CIIP mode. FIG. 9 (described below) shows the corresponding workflow of the proposed CIIP process after removing BDOF.

図9は、本開示の一例による、BDOFを除去することによる提案されたCIIP方法
のワークフローを示す図を示す。
FIG. 9 shows a diagram showing the workflow of the proposed CIIP method by removing BDOF according to an example of the present disclosure.

単一予測に基づくCIIP
上記のように、1つのCIIP CUによって参照されるマージ候補が二重予測される
ときには、L0およびL1予測信号の両方を生成し、CU内のサンプルを予測する。メモ
リ帯域幅および補間の複雑さを低減するために、本開示の一実施形態では、(現在のCU
が二重予測されている場合でも)単一予測を使用して生成されたインター予測サンプルの
みを使用して、CIIPモードにおけるイントラ予測サンプルと結合することになる。具
体的には、現在のCIIP CUが単一予測の場合において、インター予測サンプルは、
イントラ予測サンプルと直接結合される。それ以外の場合(つまり、現在のCUが二重予
測される場合)には、CIIPによって使用されるインター予測サンプルは、1つの予測
リスト(L0またはL1)からの単一予測に基づいて生成される。予測リストを選択する
には、さまざまな方法が適用できる。第1の方法では、2つの参照画像によって予測され
る任意のCIIPブロックに対して、第1の予測(つまり、リストL0)を常に選択する
ことが提案されている。
CIIP based on a single forecast
As mentioned above, when the merge candidates referenced by one CIIP CU are double predicted, both L0 and L1 prediction signals are generated to predict the samples in the CU. In order to reduce memory bandwidth and interpolation complexity, in one embodiment of the present disclosure, (current CU).
Only the inter-prediction sample generated using the single prediction (even if is double-predicted) will be used to combine with the intra-prediction sample in CIIP mode. Specifically, when the current CIIP CU is a single forecast, the inter-prediction sample is
Directly combined with the intra-prediction sample. Otherwise (ie, if the current CU is double-predicted), the inter-prediction sample used by CIIP is generated based on a single forecast from one forecast list (L0 or L1). To. Various methods can be applied to select the forecast list. In the first method, it is proposed to always select the first prediction (ie, list L0) for any CIIP block predicted by the two reference images.

第2の方法では、2つの参照画像によって予測される任意のCIIPブロックに対して
、第2の予測(すなわち、リストL1)を常に選択することが提案される。第3の方法で
は、1つの適応方法は、現在の画像からの画像順序カウント(POC)距離が小さい1つ
の参照画像に関連付けられた予測リストが選択される場合に、適用される。図10(以下
で説明)は、POC距離に基づいて予測リストを選択する、単一予測ベースのCIIPの
ワークフローを示す。
In the second method, it is proposed to always select the second prediction (ie, list L1) for any CIIP block predicted by the two reference images. In a third method, one adaptation method is applied when a prediction list associated with one reference image with a small image order count (POC) distance from the current image is selected. FIG. 10 (described below) shows a single prediction-based CIIP workflow that selects a prediction list based on POC distance.

最後に、最後の方法では、現在のCUが単一予測されている場合にのみCIIPモード
を有効にすることが提案されている。さらに、オーバーヘッドを削減するために、CII
Pの有効化/無効化フラグのシグナリングは、現在のCIIP CUの予測方向に依存す
る。現在のCUが単一予測される場合においては、CIIPフラグがビットストリームで
シグナリングされ、CIIPが有効か無効かが示される。それ以外の場合(つまり、現在
のCUが二重に予測される場合)は、CIIPフラグのシグナリングはスキップされ、常
にfalseと推測され、つまり、CIIPは常に無効にされる。
Finally, the last method proposes to enable CIIP mode only if the current CU is single predicted. In addition, to reduce overhead, CII
The signaling of the enable / disable flag of P depends on the prediction direction of the current CIIP CU. In the case of a single prediction of the current CU, the CIIP flag is signaled in a bitstream to indicate whether CIIP is enabled or disabled. Otherwise (ie, if the current CU is doubly predicted), the signaling of the CIIP flag is skipped and always presumed to be false, that is, CIIP is always disabled.

図10は、本開示の一例による、POC距離に基づいて予測リストを選択する、単一予
測ベースのCIIPのワークフローを示す図を示す。
FIG. 10 shows a diagram showing a single prediction-based CIIP workflow that selects a prediction list based on POC distances, according to an example of the present disclosure.

MPM候補リスト構成のためのイントラCUとCIIPのイントラモードの調和
上記のように、現在のCIIPデザインは、イントラCUとCIIP CUのイントラ
モードを使用してそれらの隣接ブロックのMPM候補リストを形成する方法に関して、統
一されていない。具体的には、イントラCUとCIIP CUのイントラモードの両方で
は、CIIPモードでコーディングされた隣接ブロックのイントラモードが予測できる。
ただし、イントラCUのイントラモードのみでは、イントラCUのイントラモードが予測
できる。もう1つの統一されたデザインを実現するために、2つの方法は、MPMリスト
構成のためのイントラCUとCIIPのイントラモードの使用法を調和させて、このセク
ションで提案される。
Harmonization of Intra CU and CIIP Intra Modes for MPM Candidate List Configuration As mentioned above, the current CIIP design uses the Intra CU and CIIP CU Intra modes to form an MPM candidate list for their adjacent blocks. There is no unification in terms of method. Specifically, in both the intra mode of the intra CU and the intra mode of the CIIP CU, the intra mode of the adjacent block coded in the CIIP mode can be predicted.
However, the intra mode of the intra CU can be predicted only by the intra mode of the intra CU. To achieve another unified design, two methods are proposed in this section, harmonizing the use of intra-CU and CIIP intramodes for MPM list construction.

第1の方法では、CIIPモードをMPMリスト構成のためのインターモードとして扱
うことが提案されている。具体的には、1つのCIIP CUまたは1つのイントラCU
のいずれかのMPMリストを生成するときには、隣接ブロックがCIIPモードでコーデ
ィングされている場合、隣接ブロックのイントラモードは使用不可としてマークされる。
このような方法では、CIIPブロックのイントラモードを使用してMPMリストを構成
することができない。逆に、第2の方法では、CIIPモードをMPMリスト構成のため
のイントラモードとして扱うことが提案されている。具体的には、この方法では、CII
P CUのイントラモードでは、隣接するCIIPブロックとイントラブロックの両方の
イントラモードが予測できる。図11Aと図11B(以下に説明)は、上記の2つの方法
が適用される場合のMPM候補リスト生成プロセスを示す。
In the first method, it is proposed to treat the CIIP mode as an intermode for MPM list configuration. Specifically, one CIIP CU or one intra CU
When generating an MPM list for any of the above, if the adjacent block is coded in CIIP mode, the intramode of the adjacent block is marked as unavailable.
In such a method, the MPM list cannot be constructed using the intramode of the CIIP block. On the contrary, in the second method, it is proposed to treat the CIIP mode as an intra mode for MPM list configuration. Specifically, in this method, CII
In the PCU intramode, both the adjacent CIIP block and intrablock intramodes can be predicted. 11A and 11B (described below) show the MPM candidate list generation process when the above two methods are applied.

本開示の他の実施形態は、ここで開示される本開示の仕様および実施を考慮することか
ら当業者には明らかである。本願は、その一般原則に従い、当技術分野で知られているま
たは慣習的な慣行の範囲内にある本開示からの逸脱を含む、本開示の任意の変形、使用、
または適合をカバーすることを意図している。本開示の真の範囲および精神は以下の特許
請求の範囲によって示され、明細書および実施例は単なる例として見なされることが意図
されている。
Other embodiments of the present disclosure will be apparent to those of skill in the art by considering the specifications and practices of the present disclosure disclosed herein. The present application is in accordance with its general principles, any modification, use, of the present disclosure, including deviations from the present disclosure, which are known or within the bounds of conventional practice in the art.
Or intended to cover conformance. The true scope and spirit of the present disclosure is set forth by the claims below, and the specification and examples are intended to be viewed solely as examples.

本開示は、上記に記載され、添付の図面に示されている具体的な例に限定されず、その
範囲から逸脱することなく、様々な修正および変更を行うことができることを理解された
い。本開示の範囲は、添付の特許請求の範囲によってのみ制限されることが意図されてい
る。
It should be appreciated that this disclosure is not limited to the specific examples described above and shown in the accompanying drawings, and that various modifications and changes may be made without departing from that scope. The scope of this disclosure is intended to be limited only by the appended claims.

図11Aは、本開示の一例による、MPM候補リスト生成のためにCIIPブロックを
有効にするときの方法のフローチャートを示す。
FIG. 11A shows a flow chart of a method for enabling CIIP blocks for MPM candidate list generation according to an example of the present disclosure.

図11Bは、本開示の一例による、MPM候補リスト生成のためにCIIPブロックを
無効にするときの方法のフローチャートを示す。
FIG. 11B shows a flow chart of a method for disabling the CIIP block for MPM candidate list generation according to an example of the present disclosure.

図12は、ユーザインターフェース1260と結合されたコンピューティング環境12
10を示す。コンピューティング環境1210は、データ処理サーバーの一部であり得る
。コンピューティング環境1210は、プロセッサ1220と、メモリ1240と、I/
Oインターフェース1250とを含む。
FIG. 12 shows the computing environment 12 coupled with the user interface 1260.
10 is shown. The computing environment 1210 can be part of a data processing server. The computing environment 1210 includes a processor 1220, a memory 1240, and an I /.
Includes O interface 1250.

プロセッサ1220は、通常、表示、データ取得、データ通信、および画像処理に関連
する操作など、コンピューティング環境1210の全体的な操作を制御する。プロセッサ
1220は、上記の方法のすべてまたはいくつかのステップを行うための命令を実行する
1つまたは複数のプロセッサを含み得る。さらに、プロセッサ1220は、プロセッサ1
220と他の構成要素との間の相互作用を容易にする1つまたは複数の回路を含み得る。
プロセッサは、中央処理ユニット(CPU)、マイクロプロセッサ、シングルチップマシ
ン、GPUなどであり得る。
The processor 1220 usually controls the overall operations of the computing environment 1210, such as operations related to display, data acquisition, data communication, and image processing. Processor 1220 may include one or more processors that execute instructions for performing all or several steps of the above method. Further, the processor 1220 is the processor 1
It may include one or more circuits that facilitate the interaction between 220 and other components.
The processor can be a central processing unit (CPU), a microprocessor, a single chip machine, a GPU, and the like.

メモリ1240は、コンピューティング環境1210の動作をサポートするための様々
なタイプのデータを格納するように構成される。そのようなデータの例は、コンピューテ
ィング環境1210で動作する任意のアプリケーションまたは方法に用いる命令、ビデオ
データ、画像データなどを含む。メモリ1240は、任意のタイプの揮発性または非揮発
性メモリデバイス、または、それらの組み合わせ、例えば、静的ランダムアクセスメモリ
(SRAM)、電気的に消去可能なプログラマブル読み取り専用メモリ(EEPROM)
、消去可能プログラマブル読み取り専用メモリ(EPROM)、プログラム可能な読み取
り専用メモリ(PROM)、読み取り専用メモリ(ROM)、磁気メモリ、フラッシュメ
モリ、磁気ディスクまたは光ディスクを使用して実現できる。
The memory 1240 is configured to store various types of data to support the operation of the computing environment 1210. Examples of such data include instructions, video data, image data, and the like used in any application or method operating in the computing environment 1210. Memory 1240 is any type of volatile or non-volatile memory device, or a combination thereof, such as static random access memory (SRAM), electrically erasable programmable read-only memory (EEPROM).
, Erasable programmable read-only memory (EPROM), programmable read-only memory (PROM), read-only memory (ROM), magnetic memory, flash memory, magnetic disk or optical disk.

I/Oインターフェース1250は、プロセッサ1220と、キーボード、クリックホ
イール、ボタンなどの周辺インターフェースモジュールとの間のインターフェースを提供
する。ボタンには、ホームボタン、スキャン開始ボタン、およびスキャン停止ボタンが含
まれるが、これらに限定されていない。I/Oインターフェース1250は、エンコーダ
およびデコーダと結合することができる。
The I / O interface 1250 provides an interface between the processor 1220 and peripheral interface modules such as keyboards, click wheels, and buttons. Buttons include, but are not limited to, a home button, a scan start button, and a scan stop button. The I / O interface 1250 can be coupled with encoders and decoders.

一実施形態では、上記した方法を実行するために、コンピューティング環境1210内
のプロセッサ1220によって実行可能である、メモリ1240に含まれるような複数の
プログラムを含む非一時的なコンピュータ可読記憶媒体も提供される。例えば、非一時的
なコンピュータ可読記憶媒体は、ROM、RAM、CD-ROM、磁気テープ、フロッピ
ーディスク、光学データ記憶装置などであり得る。
In one embodiment, a non-temporary computer-readable storage medium comprising a plurality of programs such as those contained in memory 1240, which can be executed by the processor 1220 in the computing environment 1210, is also provided to perform the method described above. Will be done. For example, the non-temporary computer-readable storage medium may be a ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, or the like.

非一時的なコンピュータ可読記憶媒体は、1つまたは複数のプロセッサを有するコンピ
ューティングデバイスによって実行するための複数のプログラムをその中に格納しており
、複数のプログラムは、1つまたは複数のプロセッサによって実行されると、コンピュー
ティングデバイスが上記した動作予測するための方法を実行するものである。
A non-temporary computer-readable storage medium contains a plurality of programs in it for execution by a computing device having one or more processors, the plurality of programs being performed by one or more processors. When executed, the computing device implements the above-mentioned method for predicting behavior.

一実施形態では、コンピューティング環境1210は、上述した方法を実行するために
、1つまたは複数の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DS
P)、デジタル信号処理デバイス(DSPD)、プログラマブルロジックデバイス(PL
D)、フィールドプログラマブルゲートアレイ(FPGA)、グラフィカルプロセッシン
グユニット(GPU)、コントローラー、マイクロコントローラー、マイクロプロセッサ
ー、またはその他の電子コンポーネントにより実現できる。
In one embodiment, the computing environment 1210 is an application specific integrated circuit (ASIC), digital signal processor (DS) for performing the methods described above.
P), digital signal processing device (DSPD), programmable logic device (PL)
D), field programmable gate array (FPGA), graphical processing unit (GPU), controller, microcontroller, microprocessor, or other electronic component.

Claims (26)

Figure 2021192510
Figure 2021192510
前記BDOF動作が適用されないかどうかを特定することは、前記現在の予測ブロック
の最終予測を生成するためにCIIPが適用されるという条件で前記BDOF動作が適用
されないと特定することをさらに含む、請求項1に記載の方法。
Identifying whether the BDOF operation is not applicable further comprises specifying that the BDOF operation is not applicable provided that CIIP is applied to generate the final prediction of the current prediction block. Item 1. The method according to Item 1.
前記BDOF動作が適用されると特定することは、前記現在の予測ブロックの最終予測
を生成するためにCIIPが適用されないときに前記BDOF動作が適用されると特定す
ることをさらに含む、請求項1に記載の方法。
Identifying that the BDOF operation is applied further comprises specifying that the BDOF operation is applied when the CIIP is not applied to generate the final prediction of the current prediction block. The method described in.
前記現在のブロックの前記二重予測は、前記第1の予測L0と前記第2の予測L1とを
平均することに基づいて計算される、請求項2に記載の方法。
The method of claim 2, wherein the double prediction of the current block is calculated based on averaging the first prediction L0 and the second prediction L1.
Figure 2021192510
Figure 2021192510
現在の予測ブロックに関連付けられる参照画像リスト内の参照画像を取得することと、
現在の画像から第1の参照画像への第1の動きベクトルに基づいて、インター予測を生成
することと、
前記現在の予測ブロックに関連付けられるイントラ予測モードを取得することと、
前記イントラ予測に基づいて、前記現在の予測ブロックのイントラ予測を生成することと

前記インター予測と前記イントラ予測を平均することにより、前記現在の予測ブロック
の最終予測を生成することと、
前記現在の予測ブロックが、最も可能性の高いモード(MPM)ベースのイントラモー
ド予測に対して、インターモードまたはイントラモードのどちらとして扱われるかを特定
することと、
を妥協するビデオコーディングの方法。
To get the reference image in the reference image list associated with the current prediction block,
Generating an inter-prediction based on the first motion vector from the current image to the first reference image,
To get the intra prediction mode associated with the current prediction block,
To generate an intra forecast for the current forecast block based on the intra forecast,
By averaging the inter-forecast and the intra-forecast to generate the final forecast for the current forecast block.
Identifying whether the current forecast block is treated as intermode or intramode for the most likely mode (MPM) based intramode forecast.
How to compromise video coding.
前記現在の予測ブロックが前記参照画像リストL0内の1つの参照画像から予測される
ときに、前記参照画像リストはL0である、請求項6に記載の方法。
The method of claim 6, wherein the reference image list is L0 when the current prediction block is predicted from one reference image in the reference image list L0.
前記現在の予測ブロックが前記参照画像リストL1内の1つの参照画像から予測される
ときに、前記参照画像リストはL1である、請求項6に記載の方法。
The method of claim 6, wherein the reference image list is L1 when the current prediction block is predicted from one reference image in the reference image list L1.
前記現在の予測ブロックが、前記参照画像リストL0内の1つの第1の参照画像と前記
参照画像リストL1内の1つの第2の参照画像から予測されるときに、前記参照画像リス
トはL0である、請求項6に記載の方法。
When the current prediction block is predicted from one first reference image in the reference image list L0 and one second reference image in the reference image list L1, the reference image list is at L0. The method according to claim 6.
前記現在の予測ブロックが、前記参照画像リストL0内の1つの第1の参照画像と前記
参照画像リストL1内の1つの第2の参照画像から予測されるときに、前記参照画像リス
トはL1である、請求項6に記載の方法。
When the current prediction block is predicted from one first reference image in the reference image list L0 and one second reference image in the reference image list L1, the reference image list is at L1. The method according to claim 6.
前記参照画像リストは、前記現在の予測ブロックが、前記参照画像リストL0内の1つ
の第1の参照画像と前記参照画像リストL1内の1つの第2の参照画像から予測されると
きに、前記現在の画像までの画像順序カウント(POC)距離がより小さい1つの参照画
像に関連付けられるものである、請求項6に記載の方法。
The reference image list is said when the current prediction block is predicted from one first reference image in the reference image list L0 and one second reference image in the reference image list L1. The method of claim 6, wherein the image order count (POC) distance to the current image is associated with a smaller reference image.
前記現在の予測ブロックは、インターモードとして扱われ、前記現在の予測ブロックの
前記イントラ予測モードは、MPMベースのイントラモード予測に使用されない、請求項
6に記載の方法。
The method of claim 6, wherein the current prediction block is treated as an intermode and the intra prediction mode of the current prediction block is not used for MPM-based intramode prediction.
前記現在の予測ブロックは、イントラモードとして扱われ、前記現在の予測ブロックの
前記イントラ予測モードは、MPMベースのイントラモード予測に使用される、請求項6
に記載の方法。
6. The current prediction block is treated as an intra-mode, and the intra-prediction mode of the current prediction block is used for MPM-based intra-mode prediction.
The method described in.
Figure 2021192510
Figure 2021192510
前記BDOF動作が適用されないかどうかを特定することは、前記現在の予測ブロック
の最終予測を生成するために複合インターとイントラ予測(CIIP)が適用されるとい
う条件で前記BDOF動作が適用されないと特定することをさらに含む、請求項14に記
載の非一時的なコンピュータ可読記憶媒体。
Identifying whether the BDOF operation is not applicable specifies that the BDOF operation is not applicable provided that the composite inter and intra-prediction (CIIP) are applied to generate the final prediction of the current prediction block. The non-temporary computer-readable storage medium of claim 14, further comprising:
前記BDOF動作が適用されると特定することは、前記現在の予測ブロックの最終予測
を生成するためにCIIPが適用されないときに前記BDOF動作が適用されると特定す
ることをさらに含む、請求項14に記載の非一時的なコンピュータ可読記憶媒体。
Identifying that the BDOF operation is applied further comprises specifying that the BDOF operation is applied when the CIIP is not applied to generate the final prediction of the current prediction block. A non-temporary computer-readable storage medium described in.
前記現在の予測ブロックの前記二重予測を計算することは、前記第1の予測L0と前記
第2の予測L1とに基づいて計算される、請求項15に記載の非一時的なコンピュータ可
読記憶媒体。
The non-temporary computer-readable storage according to claim 15, wherein the calculation of the double prediction of the current prediction block is calculated based on the first prediction L0 and the second prediction L1. Medium.
Figure 2021192510
Figure 2021192510
1つまたは複数のプロセッサを有するコンピューティングデバイスによって実行される
複数のプログラムを格納する非一時的なコンピュータ可読記憶媒体であって、
前記複数のプログラムは、前記1つまたは複数のプロセッサによって実行されると、
現在の予測ブロックに関連付けられる参照画像リスト内の参照画像を取得することと、
現在の画像から第1の参照画像への第1の動きベクトルに基づいて、インター予測を生
成することと、
前記現在の予測ブロックに関連付けられるイントラ予測モードを取得することと、
前記イントラ予測に基づいて、前記現在の予測ブロックのイントラ予測を生成すること
と、
前記インター予測と前記イントラ予測を平均することにより、前記現在の予測ブロック
の最終予測を生成することと、
前記現在の予測ブロックが、最も可能性の高いモード(MPM)ベースのイントラモー
ド予測に対して、インターモードまたはイントラモードのどちらとして扱われるかを特定
することと、
を含む動作を、前記コンピューティングデバイスに実行させる、非一時的なコンピュータ
可読記憶媒体。
A non-temporary computer-readable storage medium that stores multiple programs executed by a computing device with one or more processors.
When the plurality of programs are executed by the one or more processors,
To get the reference image in the reference image list associated with the current prediction block,
Generating an inter-prediction based on the first motion vector from the current image to the first reference image,
To get the intra prediction mode associated with the current prediction block,
To generate an intra forecast for the current forecast block based on the intra forecast,
By averaging the inter-forecast and the intra-forecast to generate the final forecast for the current forecast block.
Identifying whether the current forecast block is treated as intermode or intramode for the most likely mode (MPM) based intramode forecast.
A non-temporary computer-readable storage medium that causes the computing device to perform an operation including.
前記現在の予測ブロックが前記参照画像リストL0内の1つの参照画像から予測される
ときに、前記参照画像リストはL0である、請求項19に記載の非一時的なコンピュータ
可読記憶媒体。
19. The non-temporary computer-readable storage medium of claim 19, wherein the reference image list is L0 when the current prediction block is predicted from one reference image in the reference image list L0.
前記現在の予測ブロックが前記参照画像リストL1内の1つの参照画像から予測される
ときに、前記参照画像リストはL1である、請求項19に記載の非一時的なコンピュータ
可読記憶媒体。
19. The non-temporary computer-readable storage medium of claim 19, wherein the reference image list is L1 when the current prediction block is predicted from one reference image in the reference image list L1.
前記現在の予測ブロックが、前記参照画像リストL0内の1つの第1の参照画像と前記
参照画像リストL1内の1つの第2の参照画像から予測されるときに、前記参照画像リス
トはL0である、請求項19に記載の非一時的なコンピュータ可読記憶媒体。
When the current prediction block is predicted from one first reference image in the reference image list L0 and one second reference image in the reference image list L1, the reference image list is at L0. A non-temporary computer-readable storage medium according to claim 19.
前記現在の予測ブロックが、前記参照画像リストL0内の1つの第1の参照画像と前記
参照画像リストL1内の1つの第2の参照画像から予測されるときに、前記参照画像リス
トはL1である、請求項19に記載の非一時的なコンピュータ可読記憶媒体。
When the current prediction block is predicted from one first reference image in the reference image list L0 and one second reference image in the reference image list L1, the reference image list is at L1. A non-temporary computer-readable storage medium according to claim 19.
前記参照画像リストは、前記現在の予測ブロックが、前記参照画像リストL0内の1つ
の第1の参照画像と前記参照画像リストL1内の1つの第2の参照画像から予測されると
きに、前記現在の画像までの画像順序カウント(POC)距離がより小さい1つの参照画
像に関連付けられるものである、請求項19に記載の非一時的なコンピュータ可読記憶媒
体。
The reference image list is said when the current prediction block is predicted from one first reference image in the reference image list L0 and one second reference image in the reference image list L1. 19. The non-temporary computer-readable storage medium of claim 19, wherein the image order count (POC) distance to the current image is associated with a smaller reference image.
前記現在の予測ブロックは、インターモードとして扱われ、前記現在の予測ブロックの
前記イントラ予測モードは、MPMベースのイントラモード予測に使用されない、請求項
19に記載の非一時的なコンピュータ可読記憶媒体。
19. The non-temporary computer-readable storage medium of claim 19, wherein the current prediction block is treated as an intermode, and the intra prediction mode of the current prediction block is not used for MPM-based intramode prediction.
前記現在の予測ブロックは、イントラモードとして扱われ、前記現在の予測ブロックの
前記イントラ予測モードは、MPMベースのイントラモード予測に使用される、請求項1
9に記載の非一時的なコンピュータ可読記憶媒体。
The current prediction block is treated as an intra-mode, and the intra-prediction mode of the current prediction block is used for MPM-based intra-mode prediction, claim 1.
9. The non-temporary computer-readable storage medium according to 9.
JP2021127431A 2019-01-09 2021-08-03 Video coding method, video coding device, computer readable storage medium and computer program Active JP7303255B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022088741A JP2022119936A (en) 2019-01-09 2022-05-31 System and method for improving composite inter and intra prediction
JP2023133311A JP2023156465A (en) 2019-01-09 2023-08-18 Method for video coding, video coding device, non-temporal computer readable storage medium, bit stream, and computer program in bit stream
JP2023138923A JP2023162338A (en) 2019-01-09 2023-08-29 Video coding method, video coding device, non-temporary computer readable storage medium, bit stream and computer program in bit stream

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962790421P 2019-01-09 2019-01-09
US62/790,421 2019-01-09
JP2021540266A JP7223858B2 (en) 2019-01-09 2020-01-09 Video coding method, video coding device, computer readable storage medium and computer program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021540266A Division JP7223858B2 (en) 2019-01-09 2020-01-09 Video coding method, video coding device, computer readable storage medium and computer program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022088741A Division JP2022119936A (en) 2019-01-09 2022-05-31 System and method for improving composite inter and intra prediction

Publications (2)

Publication Number Publication Date
JP2021192510A true JP2021192510A (en) 2021-12-16
JP7303255B2 JP7303255B2 (en) 2023-07-04

Family

ID=78890655

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2021127431A Active JP7303255B2 (en) 2019-01-09 2021-08-03 Video coding method, video coding device, computer readable storage medium and computer program
JP2022088741A Pending JP2022119936A (en) 2019-01-09 2022-05-31 System and method for improving composite inter and intra prediction
JP2022109740A Pending JP2022172057A (en) 2019-01-09 2022-07-07 System and method for improving combined inter and intra prediction
JP2023133311A Pending JP2023156465A (en) 2019-01-09 2023-08-18 Method for video coding, video coding device, non-temporal computer readable storage medium, bit stream, and computer program in bit stream
JP2023138923A Pending JP2023162338A (en) 2019-01-09 2023-08-29 Video coding method, video coding device, non-temporary computer readable storage medium, bit stream and computer program in bit stream

Family Applications After (4)

Application Number Title Priority Date Filing Date
JP2022088741A Pending JP2022119936A (en) 2019-01-09 2022-05-31 System and method for improving composite inter and intra prediction
JP2022109740A Pending JP2022172057A (en) 2019-01-09 2022-07-07 System and method for improving combined inter and intra prediction
JP2023133311A Pending JP2023156465A (en) 2019-01-09 2023-08-18 Method for video coding, video coding device, non-temporal computer readable storage medium, bit stream, and computer program in bit stream
JP2023138923A Pending JP2023162338A (en) 2019-01-09 2023-08-29 Video coding method, video coding device, non-temporary computer readable storage medium, bit stream and computer program in bit stream

Country Status (1)

Country Link
JP (5) JP7303255B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013047811A1 (en) * 2011-09-29 2013-04-04 シャープ株式会社 Image decoding device, image decoding method, and image encoding device
WO2020114513A1 (en) * 2018-12-07 2020-06-11 Huawei Technologies Co., Ltd. An encoder, a decoder and corresponding methods of boundary strength derivation of deblocking filter

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013047811A1 (en) * 2011-09-29 2013-04-04 シャープ株式会社 Image decoding device, image decoding method, and image encoding device
WO2020114513A1 (en) * 2018-12-07 2020-06-11 Huawei Technologies Co., Ltd. An encoder, a decoder and corresponding methods of boundary strength derivation of deblocking filter

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BENJAMIN BROSS ET AL., VERSATILE VIDEO CODING (DRAFT 3), JPN6021044724, 8 January 2019 (2019-01-08), pages 154 - 157, ISSN: 0004698126 *
JIANLE CHEN ET AL., ALGORITHM DESCRIPTION FOR VERSATILE VIDEO CODING AND TEST MODEL 3 (VTM 3), JPN6021044725, 24 December 2018 (2018-12-24), pages 35 - 36, ISSN: 0004698125 *

Also Published As

Publication number Publication date
JP2023156465A (en) 2023-10-24
JP2023162338A (en) 2023-11-08
JP2022119936A (en) 2022-08-17
JP7303255B2 (en) 2023-07-04
JP2022172057A (en) 2022-11-15

Similar Documents

Publication Publication Date Title
EP2497271B1 (en) Hybrid video coding
JP5875989B2 (en) Method and apparatus for low complexity template matching prediction for video encoding and decoding
CN112534807A (en) Method and apparatus for multi-hypothesis mode referencing and constraining
JP2022522525A (en) Video encoding methods, computing devices, non-temporary computer readable storage media, and program products
US20230051193A1 (en) System and method for combined inter and intra prediction
JP2023089253A (en) Method and apparatus on prediction refinement with optical flow
KR20230070535A (en) Methods and apparatuses for prediction refinement with optical flow, bi-directional optical flow, and decoder-side motion vector refinement
JP2021192510A (en) Video coding method, video coding device, computer readable storage medium, and computer programming product
JP7198949B2 (en) Motion vector prediction for video coding
CN117221604A (en) Method and apparatus for high level syntax in video coding
CN117041602A (en) Method, computing device and storage medium for encoding video signal
CN113542748B (en) Video encoding and decoding method, apparatus, and non-transitory computer readable storage medium
KR102450491B1 (en) System and method for combined inter and intra prediction
JP2022513492A (en) How to derive a constructed affine merge candidate
GB2512563A (en) Method and apparatus for encoding an image into a video bitstream and decoding corresponding video bitstream with weighted residual predictions

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210803

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210803

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220531

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220531

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220608

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220614

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20220805

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20220809

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220830

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20221122

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20221206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230302

C302 Record of communication

Free format text: JAPANESE INTERMEDIATE CODE: C302

Effective date: 20230327

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230330

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20230425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230622

R150 Certificate of patent or registration of utility model

Ref document number: 7303255

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150