JP7303255B2 - Video coding method, video coding device, computer readable storage medium and computer program - Google Patents

Video coding method, video coding device, computer readable storage medium and computer program Download PDF

Info

Publication number
JP7303255B2
JP7303255B2 JP2021127431A JP2021127431A JP7303255B2 JP 7303255 B2 JP7303255 B2 JP 7303255B2 JP 2021127431 A JP2021127431 A JP 2021127431A JP 2021127431 A JP2021127431 A JP 2021127431A JP 7303255 B2 JP7303255 B2 JP 7303255B2
Authority
JP
Japan
Prior art keywords
reference picture
prediction
coding block
list
current coding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021127431A
Other languages
Japanese (ja)
Other versions
JP2021192510A (en
Inventor
シュウ,シャオユウ
チェン,イーウェン
ワン,シャンリン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Dajia Internet Information Technology Co Ltd
Original Assignee
Beijing Dajia Internet Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2021540266A external-priority patent/JP7223858B2/en
Application filed by Beijing Dajia Internet Information Technology Co Ltd filed Critical Beijing Dajia Internet Information Technology Co Ltd
Publication of JP2021192510A publication Critical patent/JP2021192510A/en
Priority to JP2022088741A priority Critical patent/JP2022119936A/en
Application granted granted Critical
Publication of JP7303255B2 publication Critical patent/JP7303255B2/en
Priority to JP2023133311A priority patent/JP2023156465A/en
Priority to JP2023138923A priority patent/JP2023162338A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本願は、2019年1月9日に出願された仮出願第62/790,421号に基づき優先
権を主張し、その全部の内容をここに援用する。
This application claims priority to Provisional Application No. 62/790,421, filed January 9, 2019, the entire contents of which are hereby incorporated by reference.

本願は、ビデオコーディングと圧縮に関するものである。より具体的には、本願は、ビ
デオコーディングのための複合インターとイントラ予測(CIIP)方法に関する方法お
よび装置に関するものである。
The present application relates to video coding and compression. More specifically, the present application relates to methods and apparatus for complex inter and intra prediction (CIIP) methods for video coding.

ビデオデータを圧縮するために、様々なビデオコーディング技術を使用することができ
る。ビデオコーディングは、1つまたは複数のビデオコーディング規格に従って実行され
る。たとえば、ビデオコーディング規格には、多用途ビデオコーディング(VVC)、共
同探査テストモデル(JEM)、高効率ビデオコーディング(H.265/HEVC)、高
度なビデオコーディング(H.264/AVC)、動画エキスパートグループ(MPEG)
コーディングなどが含まれる。ビデオコーディングは、一般に、ビデオ画像またはシーケ
ンスに存在する冗長性を利用する予測方法(例えば、インター予測、イントラ予測など)
を利用する。ビデオコーディング技術の重要な目標は、ビデオ品質の低下を回避または最
小限に抑えながら、ビデオデータを、より低いビットレートを使用する形式に圧縮するこ
とである。
Various video coding techniques can be used to compress video data. Video coding is performed according to one or more video coding standards. For example, video coding standards include Versatile Video Coding (VVC), Joint Exploration Test Model (JEM), High Efficiency Video Coding (H.265/HEVC), Advanced Video Coding (H.264/AVC), Video Expert Group (MPEG)
including coding. Video coding generally refers to prediction methods (e.g., inter-prediction, intra-prediction, etc.) that exploit redundancy present in video images or sequences.
take advantage of An important goal of video coding techniques is to compress video data into formats that use lower bit rates while avoiding or minimizing video quality degradation.

本開示の例は、マージ関連モードの構文シグナリングの効率を改善するための方法を提
供する。
Examples of this disclosure provide methods for improving the efficiency of syntactic signaling for merge-related modes.

Figure 0007303255000001
Figure 0007303255000001

本開示の第2の態様によれば、現在の予測ブロックに関連付けられる参照画像リスト内
の参照画像を取得することと、現在の画像から第1の参照画像への第1の動きベクトルに
基づいて、インター予測を生成することと、前記現在の予測ブロックに関連付けられるイ
ントラ予測モードを取得することと、前記イントラ予測に基づいて、前記現在の予測ブロ
ックのイントラ予測を生成することと、前記インター予測と前記イントラ予測を平均する
ことにより、前記現在の予測ブロックの最終予測を生成することと、前記現在の予測ブロ
ックが、最も可能性の高いモード(MPM)ベースのイントラモード予測に対して、イン
ターモードまたはイントラモードのどちらとして扱われるかを特定することと、を妥協す
るビデオコーディングの方法。
According to a second aspect of the present disclosure, obtaining a reference image in a reference image list associated with the current predictive block; based on a first motion vector from the current image to the first reference image, , generating an inter prediction; obtaining an intra prediction mode associated with the current prediction block; generating an intra prediction for the current prediction block based on the intra prediction; and the intra prediction to generate a final prediction for the current prediction block; A method of video coding that compromises specifying whether to be treated as a mode or an intra mode.

Figure 0007303255000002
Figure 0007303255000002

本開示の第4の態様によれば、インストラクションを記憶する非一時的なコンピュータ
可読記憶媒体が提供される。1つまたは複数のプロセッサによって実行されると、現在の
予測ブロックに関連付けられる参照画像リスト内の参照画像を取得することと、現在の画
像から第1の参照画像への第1の動きベクトルに基づいて、インター予測を生成すること
と、前記現在の予測ブロックに関連付けられるイントラ予測モードを取得することと、前
記イントラ予測に基づいて、前記現在の予測ブロックのイントラ予測を生成することと、
前記インター予測と前記イントラ予測を平均することにより、前記現在の予測ブロックの
最終予測を生成することと、前記現在の予測ブロックが、最も可能性の高いモード(MP
M)ベースのイントラモード予測に対して、インターモードまたはイントラモードのどち
らとして扱われるかを特定することと、を含む動作を、コンピューティングデバイスに実
行させる。
According to a fourth aspect of the present disclosure, a non-transitory computer-readable storage medium storing instructions is provided. When executed by one or more processors, obtaining a reference image in a reference image list associated with a current prediction block; based on a first motion vector from the current image to a first reference image; obtaining an intra-prediction mode associated with the current prediction block; generating an intra-prediction for the current prediction block based on the intra-prediction;
generating a final prediction for the current prediction block by averaging the inter prediction and the intra prediction;
M) specifying whether the base intra mode prediction is to be treated as an inter mode or an intra mode.

前述の一般的な説明および以下の詳細な説明の両方は単なる例であり、本開示を限定す
るものではないことを理解されたい。
It is to be understood that both the foregoing general description and the following detailed description are examples only and are not restrictive of the present disclosure.

本明細書に組み込まれ、その一部を構成する添付の図面は、本開示と一致する例を示し
、説明とともに、本開示の原理を説明するのに役立つ。
本開示の一例による、エンコーダのブロック図である。 本開示の一例による、デコーダのブロック図である。 本開示の一例による、複合インターとイントラ予測(CIIP)を生成するための方法を示すフローチャートである。 本開示の一例による、CIIPを生成するための方法を示すフローチャートである。 本開示の一例による、マルチタイプツリー構造におけるブロックパーティションを示す図である。 本開示の一例による、マルチタイプツリー構造におけるブロックパーティションを示す図である。 本開示の一例による、マルチタイプツリー構造におけるブロックパーティションを示す図である。 本開示の一例による、マルチタイプツリー構造におけるブロックパーティションを示す図である。 本開示の一例による、マルチタイプツリー構造におけるブロックパーティションを示す図である。 本開示の一例による、複合インターとイントラ予測(CIIP)を示す図である。 本開示の一例による、複合インターとイントラ予測(CIIP)を示す図である。 本開示の一例による、複合インターとイントラ予測(CIIP)を示す図である。 本開示の一例による、MPM候補リスト生成プロセスのフローチャートである。 本開示の一例による、MPM候補リスト生成プロセスのフローチャートである。 本開示の一例による、VVCにおける既存のCIIPデザインのワークフローを示す図である。 本開示の一例による、BDOFを除去することによる提案されたCIIP方法のワークフローを示す図である。 本開示の一例による、POC距離に基づいて予測リストを選択する、単一予測ベースのCIIPのワークフローを示す図である。 本開示の一例による、MPM候補リスト生成のためにCIIPブロックを有効にするときの方法のフローチャートである。 本開示の一例による、MPM候補リスト生成のためにCIIPブロックを無効にするときの方法のフローチャートである。 本開示の一例による、ユーザインターフェースと結合されたコンピューティング環境を示す図である。
The accompanying drawings, which are incorporated in and constitute a part of this specification, illustrate examples consistent with the present disclosure and, together with the description, serve to explain the principles of the disclosure.
1 is a block diagram of an encoder, according to an example of this disclosure; FIG. 1 is a block diagram of a decoder, according to an example of this disclosure; FIG. 4 is a flowchart illustrating a method for generating combined inter and intra prediction (CIIP) according to an example of this disclosure; 4 is a flowchart illustrating a method for generating a CIIP, according to an example of this disclosure; [0014] Figure 4 illustrates block partitions in a multi-type tree structure, according to an example of the present disclosure; [0014] Figure 4 illustrates block partitions in a multi-type tree structure, according to an example of the present disclosure; [0014] Figure 4 illustrates block partitions in a multi-type tree structure, according to an example of the present disclosure; [0014] Figure 4 illustrates block partitions in a multi-type tree structure, according to an example of the present disclosure; [0014] Figure 4 illustrates block partitions in a multi-type tree structure, according to an example of the present disclosure; [0014] FIG. 4 illustrates combined inter and intra prediction (CIIP), according to an example of the present disclosure; [0014] FIG. 4 illustrates combined inter and intra prediction (CIIP), according to an example of the present disclosure; [0014] FIG. 4 illustrates combined inter and intra prediction (CIIP), according to an example of the present disclosure; FIG. 4 is a flowchart of an MPM candidate list generation process, according to an example of the present disclosure; FIG. FIG. 4 is a flowchart of an MPM candidate list generation process, according to an example of the present disclosure; FIG. [0014] Figure 2 illustrates an existing CIIP design workflow in VVC, according to an example of the present disclosure; FIG. 10 illustrates a workflow of the proposed CIIP method by removing BDOF, according to an example of this disclosure; FIG. 12 illustrates a workflow for single-prediction-based CIIP that selects a prediction list based on POC distance, according to an example of the present disclosure; FIG. 4 is a flowchart of a method when validating a CIIP block for MPM candidate list generation, according to an example of the present disclosure; FIG. 4 is a flowchart of a method when disabling CIIP blocks for MPM candidate list generation, according to an example of the present disclosure; 1 illustrates a computing environment coupled with a user interface according to an example of this disclosure; FIG.

ここで、本開示の例を詳細に参照し、その例を添付の図面に示す。以下の説明は、別段
の記載がない限り、異なる図面における同じ番号が同じまたは類似の要素を表す添付の図
面を参照している。本開示の例の以下の説明に記載されている実施の形態は、本開示と一
致するすべての実施の形態を表すわけではない。その代わり、それらは、添付の特許請求
の範囲に記載されている本開示に関連する態様と一致する装置および方法の単なる例であ
る。
Reference will now be made in detail to examples of the disclosure, examples of which are illustrated in the accompanying drawings. The following description refers to the accompanying drawings, in which the same numbers in different drawings represent the same or similar elements, unless stated otherwise. The embodiments set forth in the following description of examples of this disclosure do not represent all embodiments consistent with this disclosure. Instead, they are merely examples of apparatus and methods consistent with related aspects of the present disclosure as recited in the appended claims.

本開示で使用される用語は、特定の実施の形態を説明することのみを目的としており、
本開示を限定することを意図するものではない。本開示および添付の特許請求の範囲で使
用されるように、単数形「a」、「an」、および「the」は、文脈で明確に示されていない
限り、複数形も含むことを意図している。ここで使用される「および/または」という用
語は、関連するリストされたアイテムの1つまたは複数の任意またはすべての可能な組み
合わせを意味し、含むことを意図することも理解されたい。
The terminology used in this disclosure is for the purpose of describing particular embodiments only,
It is not intended to limit the disclosure. As used in this disclosure and the appended claims, the singular forms "a,""an," and "the" are intended to include plural forms as well, unless the context clearly indicates otherwise. ing. It should also be understood that the term "and/or" as used herein means and is intended to include any and all possible combinations of one or more of the associated listed items.

ここで、「第1」、「第2」、「第3」などの用語を使用して様々な情報を説明するこ
とができるが、情報はこれらの用語によって限定されるべきではないことを理解されたい
。これらの用語は、あるカテゴリの情報を別のカテゴリと区別するためにのみ使用される
。例えば、本開示の範囲から逸脱することなく、第1の情報は、第2の情報と呼ばれるこ
とができ、同様に、第2の情報は、第1の情報と呼ばれることもできる。ここで使用され
る場合、「もし」という用語は、文脈に応じて、「ときに」または「に際して」または「
判断に応じて」を意味すると理解され得る。
It is understood that terms such as “first,” “second,” “third,” etc. may be used herein to describe various information, but the information should not be limited by these terms. want to be These terms are only used to distinguish one category of information from another. For example, first information could be termed second information, and, similarly, second information could be termed first information, without departing from the scope of the present disclosure. As used herein, the term "if" may be used interchangeably with "when,""when," or "when," depending on the context.
It may be understood to mean "according to judgment".

HEVC規格の第1のバージョンは、2013年10月に完成し、これは、前世代のビ
デオコーディング規格H.264/MPEG AVCと比較して、約50%のビットレー
ト節約または同等の知覚品質を提供する。HEVC規格は、その前身よりも大幅なコーデ
ィングの改善を提供しているが、HEVCにコーディングツールを追加することで、優れ
たコーディング効率を達成できるという証拠がある。これに基づいて、VCEGとMPE
Gの両方が、将来のビデオコーディング標準化のための新しいコーディングテクノロジー
の調査作業を開始した。コーディング効率の大幅な向上を可能にする高度なテクノロジー
の重要な研究が開始されるために、2015年10月に、ITU-TVECGとISO/IE
C MPEGによって1つのJoint Video Exploration Team(JVET)が結成され
た。共同探査モデル(JEM)と呼ばれる1つの参照ソフトウェアは、HEVCテストモ
デル(HM)の上にいくつかの追加のコーディングツールを統合することにより、JVE
Tによって維持されていた。
The first version of the HEVC standard was completed in October 2013 and replaces the previous generation video coding standard H.365. It offers about 50% bitrate savings or comparable perceptual quality compared to H.264/MPEG AVC. Although the HEVC standard offers significant coding improvements over its predecessor, there is evidence that adding coding tools to HEVC can achieve superior coding efficiency. Based on this, VCEG and MPE
Both G have initiated research work on new coding technologies for future video coding standardization. In October 2015, the ITU-TVECG and ISO/IE
A Joint Video Exploration Team (JVET) was formed by C MPEG. One reference software, called the Joint Exploration Model (JEM), integrates some additional coding tools on top of the HEVC Test Model (HM) to develop the JVE
maintained by T.

2017年10月に、HEVCを超える機能を備えたビデオ圧縮に関する共同提案募集
(CfP)が、ITU-TおよびISO/IECによって発行された。2018年4月に、第
10回JVET会議で、23のCfP応答が受信され評価され、HEVCよりも約40%
の圧縮効率ゲインが実証された。このような評価結果に基づいて、JVETは、Versatil
e Video Coding(VVC)と呼ばれる新世代のビデオコーディング規格を開発するため
の新しいプロジェクトを立ち上げた。同じ月に、VVC規格の参照実装を実証するために
、VVCテストモデル(VTM)と呼ばれる1つの参照ソフトウェアコードベースが確立
された。
In October 2017, a Joint Call for Proposals (CfP) on video compression with features beyond HEVC was published by ITU-T and ISO/IEC. In April 2018, at the 10th JVET conference, 23 CfP responses were received and evaluated, approximately 40% higher than HEVC
of compression efficiency gains were demonstrated. Based on these evaluation results, JVET will recommend Versatil
We launched a new project to develop a new generation video coding standard called e Video Coding (VVC). In the same month, a reference software codebase called the VVC Test Model (VTM) was established to demonstrate a reference implementation of the VVC standard.

HEVCと同様に、VVCは、ブロックベースのハイブリッドビデオコーディングフレ
ームワーク上に構成されている。図1(以下に説明)は、一般的なブロックベースのハイ
ブリッドビデオ符号化システムのブロック図を与える。入力ビデオ信号は、ブロック(コ
ーディングユニット(CU)と呼ばれる。)ごとに処理される。VTM-1.0では、C
Uは最大128x128ピクセルにすることができる。ただし、クアッドツリーのみに基
づいてブロックを区分するHEVCとは異なり、VVCでは、クアッド/二元/ターナリー
ツリーに基づくさまざまなローカル特性に適応するために、1つのコーディングツリーユ
ニット(CTU)がCUに分割される。さらに、HEVCにおける複数のパーティション
ユニットタイプの概念が除去され、つまり、CUと予測ユニット(PU)と変換ユニット
(TU)の分離がVVCに存在しなくなり、その代わりに、各CUは常に、追加のパーテ
ィションなしで予測と変換の両方の基本単位として使用される。マルチタイプツリー構造
では、1つのCTUが最初にクアッドツリー構造によって区分される。次に、各クアッド
ツリーリーフノードが二元およびターナリツリー構造でさらに区分されることができる。
図図5A、図5B、図5C、図5D、図5D、図5E(以下で説明する。)に示すように
、それぞれ、四元パーティショニング、水平二元パーティショニング、垂直二元パーティ
ショニング、水平三元パーティショニング、および垂直三元パーティショニングの5つの
分割タイプがある。
Like HEVC, VVC is built on a block-based hybrid video coding framework. FIG. 1 (discussed below) provides a block diagram of a typical block-based hybrid video coding system. An input video signal is processed in blocks, called coding units (CUs). In VTM-1.0, C
U can be up to 128x128 pixels. However, unlike HEVC, which partitions blocks based only on quadtrees, in VVC, one coding tree unit (CTU) is divided into CUs to accommodate different local characteristics based on quad/binary/ternary trees. divided into Furthermore, the concept of multiple partition unit types in HEVC is removed, i.e. the separation of CUs, prediction units (PUs) and transform units (TUs) no longer exists in VVC, instead each CU always has an additional partition used as the basic unit for both prediction and transformation without In a multi-type tree structure, one CTU is first partitioned by a quadtree structure. Each quadtree leaf node can then be further partitioned in a binary and ternary tree structure.
As shown in FIGS. 5A, 5B, 5C, 5D, 5D, and 5E (described below), quaternary partitioning, horizontal binary partitioning, vertical binary partitioning, and horizontal There are five partition types: ternary partitioning and vertical ternary partitioning.

図1(以下に説明)では、空間予測および/または時間予測を実行することができる。
空間予測(または「イントラ予測」)は、同一のビデオ画像/スライスにおけるすでにコ
ーディングされた隣接ブロックのサンプル(参照サンプルと呼ばれる。)からのピクセル
を使用して、現在のビデオブロックを予測する。空間予測は、ビデオ信号に固有の空間的
冗長性を低減する。時間予測(「インター予測」または「動き補償予測」とも呼ばれる。
)は、すでにコーディングされたビデオ画像からの再構成されたピクセルを使用して、現
在のビデオブロックを予測する。時間予測は、ビデオ信号に固有の時間的冗長性を低減す
る。特定のCUについての時間予測信号は、通常、現在のCUとその時間参照との間の動
きの量と方向を示す1つまたは複数の動きベクトル(MV)によってシグナリングされる
。また、複数の参照画像がサポートされている場合には、1つの参照画像インデックスが
追加で送信される。これは、時間予測信号が参照画像ストアにおけるどの参照画像から来
るかを識別するために使用される。空間予測および/または時間予測の後、エンコーダに
おけるモード決定ブロックは、例えば、レート歪み最適化方法に基づいて、最適な予測モ
ードを選択する。次に、予測ブロックは、現在のビデオブロックから差し引かれ、予測残
差は、変換と量子化を使用して無相関化される。
In FIG. 1 (described below), spatial prediction and/or temporal prediction can be performed.
Spatial prediction (or “intra prediction”) uses pixels from samples of already coded neighboring blocks (called reference samples) in the same video picture/slice to predict the current video block. Spatial prediction reduces the spatial redundancy inherent in video signals. Temporal prediction (also called "inter-prediction" or "motion-compensated prediction".
) predicts the current video block using reconstructed pixels from an already coded video image. Temporal prediction reduces the temporal redundancy inherent in video signals. A temporal prediction signal for a particular CU is typically signaled by one or more motion vectors (MVs) that indicate the amount and direction of motion between the current CU and its temporal reference. Also, if multiple reference pictures are supported, one additional reference picture index is sent. This is used to identify which reference picture in the reference picture store the temporal prediction signal comes from. After spatial and/or temporal prediction, a mode decision block in the encoder selects the optimal prediction mode, eg, based on a rate-distortion optimization method. The prediction block is then subtracted from the current video block and the prediction residual is decorrelated using transform and quantization.

量子化された残差係数は、逆量子化と逆変換されて、再構成された残差を形成し、次に
予測ブロックに追加されて、CUの再構成された信号を形成する。デブロッキングフィル
ター、サンプルアダプティブオフセット(SAO)、アダプティブインループフィルター
(ALF)などのさらなるインループフィルタリングは、参照画像ストアに配置され将来
のビデオブロックのコーディングに使用される前に、再構成されたCUに適用できる。出
力ビデオビットストリームを形成するために、コーディングモード(インターまたはイン
トラ)、予測モード情報、動き情報、および量子化された残差係数は、すべてエントロピ
ーコーディングユニットに送信され、さらに圧縮およびパックされてビットストリームを
形成する。
The quantized residual coefficients are inverse quantized and inverse transformed to form reconstructed residuals, which are then added to the prediction block to form the reconstructed signal of the CU. Further in-loop filtering, such as deblocking filter, sample adaptive offset (SAO), and adaptive in-loop filter (ALF), can be applied to the reconstructed CU before being placed in the reference image store and used for coding future video blocks. can be applied to To form the output video bitstream, the coding mode (inter or intra), prediction mode information, motion information, and quantized residual coefficients are all sent to an entropy coding unit where they are further compressed and packed into bits. form a stream.

図2(以下に説明)は、ブロックベースのビデオデコーダの一般的なブロック図を示す
。ビデオビットストリームは、最初にエントロピーデコードユニットでエントロピーデコ
ードされる。コーディングモードおよび予測情報は、空間予測ユニット(イントラコーデ
ィングされている場合)または時間予測ユニット(インターコーディングされている場合
)のいずれかに送信されて、予測ブロックを形成する。残差変換係数は、逆量子化ユニッ
トと逆変換ユニットに送信されて、残差ブロックを再構成する。次に、予測ブロックと残
差ブロックは、一緒に加算される。再構成されたブロックは、参照画像ストアに格納され
る前に、インループフィルタリングをさらに通過することができる。次に、参照画像スト
アにおける再構成されたビデオは、ディスプレイデバイスを駆動するために送出され、将
来のビデオブロックを予測するためにも使用される。
FIG. 2 (discussed below) shows a general block diagram of a block-based video decoder. A video bitstream is first entropy decoded in an entropy decoding unit. The coding mode and prediction information are sent to either the spatial prediction unit (if intra-coded) or the temporal prediction unit (if inter-coded) to form a predicted block. The residual transform coefficients are sent to an inverse quantization unit and an inverse transform unit to reconstruct a residual block. The prediction block and residual block are then added together. The reconstructed blocks can be further passed through in-loop filtering before being stored in the reference image store. The reconstructed video in the reference image store is then sent to drive a display device and also used to predict future video blocks.

図1は、典型的なエンコーダ100を示す。エンコーダ100は、ビデオ入力110、
動き補償112、動き推定114、イントラ/インターモード決定116、ブロック予測
器140、加算器128、変換130、量子化132、予測関連情報142、イントラ予
測118、画像バッファ120、逆量子化134、逆変換136、加算器126、メモリ
124、インループフィルタ122、エントロピーコーディング138、およびビットス
トリーム144を有する。
FIG. 1 shows a typical encoder 100. As shown in FIG. Encoder 100 receives video input 110,
Motion compensation 112, motion estimation 114, intra/inter mode decision 116, block predictor 140, adder 128, transform 130, quantization 132, prediction related information 142, intra prediction 118, image buffer 120, inverse quantization 134, inverse It has transform 136 , adder 126 , memory 124 , in-loop filter 122 , entropy coding 138 and bitstream 144 .

図2は、典型的なデコーダ200のブロック図を示す。デコーダ200は、ビットスト
リーム210、エントロピーデコード212、逆量子化214、逆変換216、加算器2
18、イントラ/インターモード選択220、イントラ予測222、メモリ230、イン
ループフィルタ228、動き補償224、画像バッファ226、予測関連情報234、お
よびビデオ出力232を有する。
FIG. 2 shows a block diagram of a typical decoder 200. As shown in FIG. Decoder 200 includes bitstream 210, entropy decoding 212, inverse quantization 214, inverse transform 216, adder 2
18, intra/inter mode selection 220, intra prediction 222, memory 230, in-loop filter 228, motion compensation 224, image buffer 226, prediction related information 234, and video output 232;

図3は、本開示による、複合インターとイントラ予測(CIIP)を生成するための例
示的な方法300を示す。
FIG. 3 illustrates an example method 300 for generating combined inter and intra prediction (CIIP) according to this disclosure.

ステップ310において、現在の予測ブロックに関連付けられる第1の参照画像と第2
の参照画像を取得する。ここで、第1の参照画像は表示順で現在の画像の前にあり、第2
の参照画像は表示順で現在の画像の後にある。
At step 310, a first reference image associated with the current prediction block and a second
Get a reference image of where the first reference image precedes the current image in display order and the second
The reference image for is after the current image in display order.

ステップ312において、現在の予測ブロックから第1の参照画像内の参照ブロックへ
の第1の動きベクトルMV0に基づいて、第1の予測L0を取得する。
At step 312, a first prediction L0 is obtained based on the first motion vector MV0 from the current prediction block to the reference block in the first reference picture.

ステップ314において、現在の予測ブロックから第2の参照画像内の参照ブロックへ
の第2の動きベクトルMV1に基づいて、第2の予測L1を取得する。
At step 314, a second prediction L1 is obtained based on the second motion vector MV1 from the current prediction block to the reference block in the second reference picture.

Figure 0007303255000003
Figure 0007303255000003

Figure 0007303255000004
Figure 0007303255000004

図4は、本開示による、CIIPを生成するための例示的な方法を示す。たとえば、当
該方法は、CIIPを生成するために、単一予測ベースのインター予測とMPMベースの
イントラ予測が含まれる。
FIG. 4 shows an exemplary method for generating a CIIP according to this disclosure. For example, the method includes single-prediction-based inter-prediction and MPM-based intra-prediction to generate CIIP.

ステップ410において、現在の予測ブロックに関連付けられる参照画像リストにおけ
る参照画像を取得する。
At step 410, a reference image in the reference image list associated with the current prediction block is obtained.

ステップ412において、現在の画像から第1の参照画像への第1の動きベクトルに基
づいて、インター予測を生成する。
At step 412, an inter prediction is generated based on the first motion vector from the current picture to the first reference picture.

ステップ414において、現在の予測ブロックに関連付けられるイントラ予測モードを
取得する。
At step 414, the intra-prediction mode associated with the current prediction block is obtained.

ステップ416において、イントラ予測に基づいて、現在の予測ブロックのイントラ予
測を生成する。
At step 416, an intra-prediction for the current prediction block is generated based on the intra-prediction.

ステップ418において、インター予測とイントラ予測を平均することにより、現在の
予測ブロックの最終予測を生成する。
At step 418, the inter-prediction and intra-prediction are averaged to generate a final prediction for the current prediction block.

ステップ420において、現在の予測ブロックが、最も可能性の高いモード(MPM)
ベースのイントラモード予測について、インターモードまたはイントラモードのどちらと
して扱われるかを特定する。
At step 420, the current prediction block is the most likely mode (MPM)
Specifies whether the base intra mode prediction is treated as an inter mode or an intra mode.

図5Aは、本開示の一例による、マルチタイプツリー構造におけるブロック四元パーテ
ィションを示す図を示す。
FIG. 5A shows a diagram illustrating block quaternary partitions in a multi-type tree structure, according to an example of this disclosure.

図5Bは、本開示の一例による、マルチタイプツリー構造におけるブロック垂直二元パ
ーティションを示す図を示す。
FIG. 5B shows a diagram illustrating block vertical binary partitions in a multi-type tree structure, according to an example of this disclosure.

図5Cは、本開示の一例による、マルチタイプツリー構造におけるブロック水平二元パ
ーティションを示す図を示す。
FIG. 5C shows a diagram illustrating block-horizontal binary partitions in a multi-type tree structure, according to an example of this disclosure.

図5Dは、本開示の一例による、マルチタイプツリー構造におけるブロック垂直三元パ
ーティションを示す図を示す。
FIG. 5D shows a diagram illustrating block vertical ternary partitions in a multi-type tree structure, according to an example of this disclosure.

図5Eは、本開示の一例による、マルチタイプツリー構造におけるブロック水平三元パ
ーティションを示す図を示す。
FIG. 5E shows a diagram illustrating a block-horizontal ternary partition in a multi-type tree structure, according to an example of this disclosure.

複合インターとイントラ予測
図1、図2に示されるように、インターとイントラ予測方法は、ハイブリッドビデオコ
ーディングスキームで使用される。ここで、各PUは、時間域または空間域のいずれかの
みで、相関性を利用するために、インター予測またはイントラ予測を選択することが許可
され、両方ではできない。ただし、従来の文献で指摘されているように、インター予測ブ
ロックとイントラ予測ブロックによって生成された残差信号は、互いに非常に異なる特性
を示す可能性がある。したがって、2種類の予測を効率的に組み合わせることができれば
、予測残差のエネルギーを削減してコーディング効率を向上させるために、もう1つの正
確な予測が期待できる。さらに、自然なビデオコンテンツでは、動くオブジェクトの動き
が複雑になる可能性がある。たとえば、古いコンテンツ(たとえば、以前にコーディング
された画像に含まれるオブジェクト)と新たな新しいコンテンツ(たとえば、以前にコー
ディングされた画像で除外されるオブジェクト)の両方を含む領域が存在する可能性があ
る。このようなシナリオでは、インター予測も、イントラ予測も、現在のブロックの1つ
の正確な予測を提供できない。
Combined Inter and Intra Prediction As shown in FIGS. 1 and 2, inter and intra prediction methods are used in hybrid video coding schemes. Here, each PU is allowed to choose inter-prediction or intra-prediction to exploit correlations in either the temporal or spatial domain only, but not both. However, as pointed out in the prior literature, the residual signals produced by inter-predicted and intra-predicted blocks can exhibit very different characteristics from each other. Therefore, if two types of prediction can be efficiently combined, one more accurate prediction can be expected to reduce the energy of prediction residuals and improve coding efficiency. In addition, natural video content can complicate the motion of moving objects. For example, there may be regions that contain both old content (e.g. objects included in previously coded images) and new new content (e.g. objects excluded in previously coded images) . In such scenarios, neither inter-prediction nor intra-prediction can provide an accurate prediction of one of the current blocks.

予測効率をさらに改善するために、VVC規格には、マージモードによってコーディン
グされた1つのCUのイントラ予測とインター予測を組み合わせる複合インターとイント
ラ予測(CIIP)が採用されている。具体的には、マージCUごとに、1つの追加フラ
グは、CIIPが現在のCUに対して有効になっているかどうかを示すために、シグナリ
ングされる。輝度コンポーネントに対して、CIIPは、平面モード、DCモード、水平
モード、垂直モードを含む頻繁に使用される4つのイントラモードをサポートする。彩度
コンポーネントに対して、DM(つまり、彩度は、輝度コンポーネントの同じイントラモ
ードを再利用する)は、追加のシグナリングなしで常に適用される。さらに、既存のCI
IPデザインでは、加重平均が適用され、1つのCIIP CUのインター予測サンプル
とイントラ予測サンプルが結合される。具体的には、平面モードまたはDCモードが選択
されている場合において、等しい重み(つまり、0.5)が適用される。それ以外の場合
(つまり、水平モードまたは垂直モードのいずれかが適用される。)、現在のCUは最初
に水平(水平モードの場合)または垂直(垂直モードの場合)に4つの同じサイズの領域
に分割される。
To further improve the prediction efficiency, the VVC standard adopts composite inter and intra prediction (CIIP), which combines intra and inter prediction of one CU coded by merge mode. Specifically, for each merge-CU, one additional flag is signaled to indicate whether CIIP is enabled for the current CU. For the luma component, CIIP supports four frequently used intra modes, including planar mode, DC mode, horizontal mode, and vertical mode. For the chroma component, DM (ie chroma reuses the same intra mode of the luma component) is always applied without additional signaling. In addition, existing CI
In IP design, a weighted average is applied to combine the inter-predicted and intra-predicted samples of one CIIP CU. Specifically, equal weighting (ie, 0.5) is applied when planar or DC mode is selected. Otherwise (i.e., either horizontal or vertical mode applies), the current CU is initially divided into four equal-sized regions horizontally (for horizontal mode) or vertically (for vertical mode). divided into

Figure 0007303255000005
Figure 0007303255000005

さらに、現在のVVC動作仕様では、1つのCIIP CUのイントラモードが、最も
可能性の高いモード(MPM)メカニズムを介して、その隣接するCIIP CUのイン
トラモードを予測するための予測子として使用されることができる。具体的には、各CI
IP CUについて、その隣接するブロックもCIIP CUである場合において、それ
らの隣接ブロックのイントラモードは、最初に、平面モード、DCモード、水平モード、
および垂直モード内の最も近いモードに丸められ、次に、現在のCUのMPM候補リスト
に追加される。ただし、各イントラCUのMPMリストを構成するときには、その隣接す
るブロックの1つは、CIIPモードでコーディングされていると、使用不可と見なされ
る。つまり、1つのCIIP CUのイントラモードは、その隣接するイントラCUのイ
ントラモードを予測することを許可されていない。図7Aと図7B(以下で説明する)は
、イントラCUとCIIP CUのMPMリスト生成プロセスを比較する。
Furthermore, in the current VVC operating specification, the intra mode of one CIIP CU is used as a predictor to predict the intra mode of its neighboring CIIP CUs via the most probable mode (MPM) mechanism. can Specifically, each CI
For an IP CU, if its neighboring blocks are also CIIP CUs, the intra modes of those neighboring blocks are first: planar mode, DC mode, horizontal mode,
and rounded to the nearest mode within the vertical mode, then added to the current CU's MPM candidate list. However, when constructing the MPM list for each intra-CU, one of its neighboring blocks is considered unavailable if it is coded in CIIP mode. That is, the intra-modes of one CIIP CU are not allowed to predict the intra-modes of its neighboring intra-CUs. Figures 7A and 7B (discussed below) compare the MPM list generation process for intra and CIIP CUs.

Figure 0007303255000006
Figure 0007303255000006

Figure 0007303255000007
Figure 0007303255000007

Figure 0007303255000008
Figure 0007303255000008

Figure 0007303255000009
Figure 0007303255000009

ここで、shiftとooffsetは、それぞれ、15-BDと1≪(14-BD)+2・(1≪13
)に等しく、二重予測のL0とL1予測信号を組み合わせるために適用される右シフト値
とオフセット値である。
where shift and o offset are 15-BD and 1<<(14-BD)+2*(1<<13
), which is the right shift and offset values applied to combine the double-predicted L0 and L1 prediction signals.

図6Aは、本開示の一例による、水平モードの複合インターとイントラ予測を示す図を
示す。
FIG. 6A shows a diagram illustrating horizontal mode combined inter and intra prediction, according to an example of this disclosure.

図6Bは、本開示の一例による、垂直モードの複合インターとイントラ予測を示す図を
示す。
FIG. 6B shows a diagram illustrating composite inter and intra prediction in vertical mode, according to an example of this disclosure.

図6Cは、本開示の一例による、平面モードとDCモードの複合インターとイントラ予
測を示す図を示す。
FIG. 6C shows a diagram illustrating combined inter and intra prediction for planar and DC modes, according to an example of this disclosure.

図7Aは、本開示の一例による、イントラCUSのMPM候補リスト生成プロセスのフ
ローチャートを示す。
FIG. 7A shows a flowchart of an intra-CUS MPM candidate list generation process, according to an example of this disclosure.

図7Bは、本開示の一例による、CIIP CUのMPM候補リスト生成プロセスのフ
ローチャートを示す。
FIG. 7B shows a flowchart of a CIIP CU's MPM candidate list generation process, according to an example of this disclosure.

CIIPに対する改善
CIIPは、従来の動き補償予測の効率を高めることができるが、そのデザインをさら
に改善することができる。具体的には、VVCにおける既存のCIIPデザインにおける
以下の問題は、本開示で識別されている。
Improvements over CIIP Although CIIP can increase the efficiency of conventional motion-compensated prediction, its design can be further improved. Specifically, the following problems in existing CIIP designs in VVC are identified in this disclosure.

まず、「複合インターとイントラ予測」のセクションで説明したように、CIIPは、
インターとイントラ予測のサンプルを組み合わせるため、各CIIP CUは、その再構
成された隣接サンプルを使用して予測信号を生成する必要がある。これは、1つのCII
P CUのデコードが、その隣接ブロックの完全な再構成に依存していることを意味する
。このような相互依存性のため、実際のハードウェア実装では、CIIPは、隣接する再
構成されたサンプルがイントラ予測に利用できるようになる再構成段階で実行する必要が
ある。再構成段階でのCUのデコードは、順次に(つまり、1つずつ)実行しなければな
らないため、CIIPプロセスに含まれる計算演算(例えば、乗算、加算、ビットシフト
)の数は、リアルタイムデコードの十分なスループットを確保するために、高すぎるもの
とすることができない。
First, as explained in the "Combined Inter and Intra Prediction" section, CIIP
To combine inter and intra prediction samples, each CIIP CU needs to use its reconstructed neighboring samples to generate a prediction signal. This is one CII
It means that the decoding of a PCU depends on perfect reconstruction of its neighboring blocks. Because of these interdependencies, in practical hardware implementations CIIP should be performed at the reconstruction stage when adjacent reconstructed samples are available for intra-prediction. Since the decoding of CUs in the reconstruction stage must be performed sequentially (i.e., one by one), the number of computational operations (e.g., multiplications, additions, bit shifts) involved in the CIIP process is limited to real-time decoding. It cannot be too high to ensure sufficient throughput.

「双方向オプティカルフロー」のセクションで述べたように、BDOFは、前方および
後方の両方の時間方向からの2つの参照ブロックから、1つのインターコーディングされ
たCUが予測されるときに、予測品質が向上するように、有効にされる。図8(以下に説
明)に示すように、現在のVVCでは、BDOFも、CIIPモードのインター予測サン
プルを生成するために関与している。BDOFによるさらなる複雑性を考えると、このよ
うなデザインは、CIIPが有効にされる場合、ハードウェアコーデックのエンコード/
デコードスループットが大幅に低下する可能性がある。
As mentioned in the “Bidirectional Optical Flow” section, BDOF has a prediction quality of Enabled to improve. As shown in FIG. 8 (discussed below), in current VVC, BDOF is also involved to generate inter-prediction samples for CIIP mode. Given the additional complexity with BDOF, such a design may not be suitable for hardware codec encoding/encoding when CIIP is enabled.
Decoding throughput can be significantly reduced.

次に、現在のCIIPデザインでは、1つのCIIP CUが、二重予測される1つの
マージ候補を参照する場合に、リストL0およびL1の両方の動き補償予測信号を生成す
る必要がある。1つまたは複数のMVが整数精度でない場合においては、部分的なサンプ
ル位置でサンプルを補間するために、追加の補間プロセスを呼び出しなければならない。
このようなプロセスは、計算上の複雑さを増すだけでなく、外部メモリからより多くの参
照サンプルにアクセスする必要がある場合、メモリ帯域幅も増やす。
Next, in the current CIIP design, motion-compensated prediction signals for both lists L0 and L1 need to be generated when one CIIP CU references one merge candidate that is double-predicted. In cases where one or more MVs are not integer precision, an additional interpolation process must be invoked to interpolate samples at partial sample positions.
Such a process not only increases computational complexity, but also increases memory bandwidth if more reference samples need to be accessed from external memory.

それから、「複合インターとイントラ予測」のセクションで論じたように、現在のCI
IPデザインでは、CIIP CUのイントラモードとイントラCUのイントラモードは
、それらの隣接ブロックのMPMリストを構成するときに異なって扱われる。具体的には
、1つの現在のCUがCIIPモードでコーディングされている場合には、その隣接する
CIIP CUは、イントラと見なされ、つまり、隣接するCIIP CUのイントラモ
ードがMPM候補リストに追加されることができる。ただし、現在のCUがイントラモー
ドでコーディングされている場合には、その隣接するCIIP CUは、インターと見な
され、つまり、隣接するCIIP CUのイントラモードがMPM候補リストから除外さ
れている。このような統一されていないデザインは、VVC規格の最終バージョンに最適
でない可能性がある。
Then, as discussed in the “Combined Inter and Intra Prediction” section, the current CI
In IP design, the intra mode of CIIP CUs and the intra mode of intra CUs are treated differently when constructing the MPM lists of their neighboring blocks. Specifically, if one current CU is coded in CIIP mode, its neighboring CIIP CU is considered intra, i.e. the intra mode of the neighboring CIIP CU is added to the MPM candidate list. can However, if the current CU is coded in intra mode, its neighboring CIIP CU is considered inter, i.e. the intra mode of the neighboring CIIP CU is excluded from the MPM candidate list. Such non-uniform designs may not be optimal for the final version of the VVC standard.

図8は、本開示の一例による、VVCにおける既存のCIIPデザインのワークフロー
を示す図を示す。
FIG. 8 shows a diagram illustrating an existing CIIP design workflow in VVC, according to an example of this disclosure.

CIIPの単純化
本開示では、ハードウェアコーデック実装を容易にするために既存のCIIPデザイン
を単純化するための方法が提供される。一般に、本開示で提案される技術の主なアスペク
トは、以下のように要約される。
Simplifying CIIP In this disclosure, methods are provided to simplify existing CIIP designs to facilitate hardware codec implementation. In general, the main aspects of the technology proposed in this disclosure are summarized as follows.

まず、CIIPコーディング/デコードスループットを改善するために、CIIPモー
ドでのインター予測サンプルの生成からBDOFを除外することが提案される。
First, to improve the CIIP coding/decoding throughput, it is proposed to exclude BDOF from inter-prediction sample generation in CIIP mode.

次に、計算上の複雑さおよびメモリ帯域幅の消費を低減するためには、1つのCIIP
CUが二重予測される(すなわち、L0およびL1 MVの両方を有する)場合におい
ては、インター予測サンプルを生成するために、ブロックを二重予測から単一予測に変換
する方法が提案される。
Then, to reduce computational complexity and memory bandwidth consumption, one CIIP
In the case where the CU is doubly predicted (ie, has both L0 and L1 MVs), a method is proposed to convert the block from doubly predicted to uni-predicted to generate inter-predicted samples.

それから、2つの方法は、隣接するブロックのMPM候補を形成するときに、イントラ
CUとCIIPのイントラモードを調和させるために提案される。
Then, two methods are proposed to harmonize intra-CU and CIIP intra-modes when forming MPM candidates for neighboring blocks.

BDOFのないCIIP
「問題ステートメント」のセクションで指摘されているように、BDOFは、現在のC
Uが二重予測されるとき、CIIPモードについてのインター予測サンプルを生成するよ
うに、常に有効にされている。BDOFのさらなる複雑さのため、既存のCIIPデザイ
ンは、エンコード/デコードスループットが大幅に低下する可能性があり、特に、リアル
タイムデコードがVVCデコーダーに対して困難になる可能性がある。一方、CIIP
CUについては、その最終予測サンプルは、インター予測サンプルとイントラ予測サンプ
ルを平均することによって生成される。言い換えると、BDOFによる改良した予測サン
プルは、CIIP CUの予測信号として直接使用されない。したがって、従来の二重予
測CU(ここで、BDOFは、予測サンプルを生成するために直接に適用される)と比較
すると、BDOFから得られる対応する改善はCIIP CUでは効率が低くなる。した
がって、上記の事情に基づいて、CIIPモードのインター予測サンプルを生成するとき
にBDOFを無効にすることが提案される。図9(以下に説明)は、BDOFを除去した
後の提案されたCIIPプロセスの対応するワークフローを示す。
CIIP without BDOF
As pointed out in the "problem statement" section, BDOF is a
Always enabled to generate inter-predicted samples for CIIP mode when U is doubly predicted. Due to the additional complexity of BDOF, existing CIIP designs can suffer from significantly lower encoding/decoding throughput, especially real-time decoding can be difficult for VVC decoders. On the other hand, CIIP
For a CU, its final prediction sample is generated by averaging the inter-prediction and intra-prediction samples. In other words, the BDOF-improved prediction samples are not directly used as prediction signals for the CIIP CU. Therefore, the corresponding improvement obtained from BDOF is less efficient for CIIP CU when compared to conventional doubly-predicted CU, where BDOF is directly applied to generate prediction samples. Therefore, based on the above circumstances, it is proposed to disable BDOF when generating CIIP mode inter-prediction samples. FIG. 9 (discussed below) shows the corresponding workflow of the proposed CIIP process after removing the BDOF.

図9は、本開示の一例による、BDOFを除去することによる提案されたCIIP方法
のワークフローを示す図を示す。
FIG. 9 shows a diagram illustrating the workflow of the proposed CIIP method by removing BDOF, according to an example of this disclosure.

単一予測に基づくCIIP
上記のように、1つのCIIP CUによって参照されるマージ候補が二重予測される
ときには、L0およびL1予測信号の両方を生成し、CU内のサンプルを予測する。メモ
リ帯域幅および補間の複雑さを低減するために、本開示の一実施形態では、(現在のCU
が二重予測されている場合でも)単一予測を使用して生成されたインター予測サンプルの
みを使用して、CIIPモードにおけるイントラ予測サンプルと結合することになる。具
体的には、現在のCIIP CUが単一予測の場合において、インター予測サンプルは、
イントラ予測サンプルと直接結合される。それ以外の場合(つまり、現在のCUが二重予
測される場合)には、CIIPによって使用されるインター予測サンプルは、1つの予測
リスト(L0またはL1)からの単一予測に基づいて生成される。予測リストを選択する
には、さまざまな方法が適用できる。第1の方法では、2つの参照画像によって予測され
る任意のCIIPブロックに対して、第1の予測(つまり、リストL0)を常に選択する
ことが提案されている。
CIIP based on a single prediction
As described above, when a merge candidate referenced by one CIIP CU is double predicted, both L0 and L1 prediction signals are generated to predict the samples within the CU. To reduce memory bandwidth and interpolation complexity, in one embodiment of the present disclosure, (current CU
Only inter-predicted samples generated using uni-prediction (even if is doubly-predicted) will be used to combine with intra-predicted samples in CIIP mode. Specifically, in the case where the current CIIP CU is uni-prediction, the inter-prediction samples are
Directly combined with intra-prediction samples. Otherwise (i.e., if the current CU is doubly predicted), the inter-prediction samples used by CIIP are generated based on a single prediction from one prediction list (L0 or L1). be. Various methods can be applied to select the prediction list. A first method proposes to always choose the first prediction (ie list L0) for any CIIP block predicted by two reference pictures.

第2の方法では、2つの参照画像によって予測される任意のCIIPブロックに対して
、第2の予測(すなわち、リストL1)を常に選択することが提案される。第3の方法で
は、1つの適応方法は、現在の画像からの画像順序カウント(POC)距離が小さい1つ
の参照画像に関連付けられた予測リストが選択される場合に、適用される。図10(以下
で説明)は、POC距離に基づいて予測リストを選択する、単一予測ベースのCIIPの
ワークフローを示す。
A second method proposes to always choose the second prediction (ie list L1) for any CIIP block predicted by two reference pictures. In a third method, one adaptive method is applied if a prediction list associated with one reference picture with a small picture order count (POC) distance from the current picture is selected. FIG. 10 (discussed below) shows the workflow of single-prediction-based CIIP, which selects a prediction list based on POC distance.

最後に、最後の方法では、現在のCUが単一予測されている場合にのみCIIPモード
を有効にすることが提案されている。さらに、オーバーヘッドを削減するために、CII
Pの有効化/無効化フラグのシグナリングは、現在のCIIP CUの予測方向に依存す
る。現在のCUが単一予測される場合においては、CIIPフラグがビットストリームで
シグナリングされ、CIIPが有効か無効かが示される。それ以外の場合(つまり、現在
のCUが二重に予測される場合)は、CIIPフラグのシグナリングはスキップされ、常
にfalseと推測され、つまり、CIIPは常に無効にされる。
Finally, the last method proposes to enable CIIP mode only if the current CU is uni-predicted. Furthermore, to reduce overhead, CII
The signaling of the enable/disable flag of P depends on the prediction direction of the current CIIP CU. In case the current CU is uni-predicted, a CIIP flag is signaled in the bitstream to indicate whether CIIP is enabled or disabled. Otherwise (ie, if the current CU is double-predicted), signaling of the CIIP flag is skipped and always assumed to be false, ie CIIP is always disabled.

図10は、本開示の一例による、POC距離に基づいて予測リストを選択する、単一予
測ベースのCIIPのワークフローを示す図を示す。
FIG. 10 shows a diagram illustrating a workflow for single-prediction-based CIIP that selects a prediction list based on POC distance, according to an example of this disclosure.

MPM候補リスト構成のためのイントラCUとCIIPのイントラモードの調和
上記のように、現在のCIIPデザインは、イントラCUとCIIP CUのイントラ
モードを使用してそれらの隣接ブロックのMPM候補リストを形成する方法に関して、統
一されていない。具体的には、イントラCUとCIIP CUのイントラモードの両方で
は、CIIPモードでコーディングされた隣接ブロックのイントラモードが予測できる。
ただし、イントラCUのイントラモードのみでは、イントラCUのイントラモードが予測
できる。もう1つの統一されたデザインを実現するために、2つの方法は、MPMリスト
構成のためのイントラCUとCIIPのイントラモードの使用法を調和させて、このセク
ションで提案される。
Harmonizing Intra-CU and CIIP Intra-Modes for MPM Candidate List Construction As mentioned above, the current CIIP design uses intra-CU and CIIP CU's intra-modes to form the MPM candidate list of their neighboring blocks. method is not uniform. Specifically, both the intra CU and the intra mode of the CIIP CU can predict the intra mode of neighboring blocks coded in the CIIP mode.
However, the intra mode of the intra CU can be predicted only with the intra mode of the intra CU. To achieve another unified design, two methods are proposed in this section, harmonizing the usage of intra-CU and CIIP's intra-mode for MPM list construction.

第1の方法では、CIIPモードをMPMリスト構成のためのインターモードとして扱
うことが提案されている。具体的には、1つのCIIP CUまたは1つのイントラCU
のいずれかのMPMリストを生成するときには、隣接ブロックがCIIPモードでコーデ
ィングされている場合、隣接ブロックのイントラモードは使用不可としてマークされる。
このような方法では、CIIPブロックのイントラモードを使用してMPMリストを構成
することができない。逆に、第2の方法では、CIIPモードをMPMリスト構成のため
のイントラモードとして扱うことが提案されている。具体的には、この方法では、CII
P CUのイントラモードでは、隣接するCIIPブロックとイントラブロックの両方の
イントラモードが予測できる。図11Aと図11B(以下に説明)は、上記の2つの方法
が適用される場合のMPM候補リスト生成プロセスを示す。
The first method proposes to treat the CIIP mode as an inter mode for MPM list construction. Specifically, one CIIP CU or one intra CU
When generating an MPM list for either of , if the adjacent block is coded in CIIP mode, the intra mode of the adjacent block is marked as disabled.
In such a method, the intra mode of the CIIP block cannot be used to configure the MPM list. Conversely, the second method proposes to treat the CIIP mode as an intra mode for MPM list construction. Specifically, in this method, CII
In intra mode of PCU, intra mode of both adjacent CIIP blocks and intra blocks can be predicted. 11A and 11B (discussed below) illustrate the MPM candidate list generation process when the above two methods are applied.

本開示の他の実施形態は、ここで開示される本開示の仕様および実施を考慮することか
ら当業者には明らかである。本願は、その一般原則に従い、当技術分野で知られているま
たは慣習的な慣行の範囲内にある本開示からの逸脱を含む、本開示の任意の変形、使用、
または適合をカバーすることを意図している。本開示の真の範囲および精神は以下の特許
請求の範囲によって示され、明細書および実施例は単なる例として見なされることが意図
されている。
Other embodiments of the disclosure will be apparent to those skilled in the art from consideration of the specification and practice of the disclosure disclosed herein. This application, in accordance with its general principles, covers any variations, uses,
or intended to cover conformance. It is intended that the specification and examples be considered as exemplary only, with a true scope and spirit of the disclosure being indicated by the following claims.

本開示は、上記に記載され、添付の図面に示されている具体的な例に限定されず、その
範囲から逸脱することなく、様々な修正および変更を行うことができることを理解された
い。本開示の範囲は、添付の特許請求の範囲によってのみ制限されることが意図されてい
る。
It is to be understood that this disclosure is not limited to the specific examples described above and illustrated in the accompanying drawings, and that various modifications and changes may be made without departing from its scope. It is intended that the scope of this disclosure be limited only by the claims appended hereto.

図11Aは、本開示の一例による、MPM候補リスト生成のためにCIIPブロックを
有効にするときの方法のフローチャートを示す。
FIG. 11A shows a flowchart of a method when enabling a CIIP block for MPM candidate list generation, according to an example of this disclosure.

図11Bは、本開示の一例による、MPM候補リスト生成のためにCIIPブロックを
無効にするときの方法のフローチャートを示す。
FIG. 11B shows a flowchart of a method when disabling CIIP blocks for MPM candidate list generation, according to an example of this disclosure.

図12は、ユーザインターフェース1260と結合されたコンピューティング環境12
10を示す。コンピューティング環境1210は、データ処理サーバーの一部であり得る
。コンピューティング環境1210は、プロセッサ1220と、メモリ1240と、I/
Oインターフェース1250とを含む。
FIG. 12 illustrates computing environment 12 coupled with user interface 1260
10 is shown. Computing environment 1210 may be part of a data processing server. Computing environment 1210 includes processor 1220, memory 1240, I/O
0 interface 1250 .

プロセッサ1220は、通常、表示、データ取得、データ通信、および画像処理に関連
する操作など、コンピューティング環境1210の全体的な操作を制御する。プロセッサ
1220は、上記の方法のすべてまたはいくつかのステップを行うための命令を実行する
1つまたは複数のプロセッサを含み得る。さらに、プロセッサ1220は、プロセッサ1
220と他の構成要素との間の相互作用を容易にする1つまたは複数の回路を含み得る。
プロセッサは、中央処理ユニット(CPU)、マイクロプロセッサ、シングルチップマシ
ン、GPUなどであり得る。
Processor 1220 typically controls the overall operation of computing environment 1210, such as operations associated with display, data acquisition, data communication, and image processing. Processor 1220 may include one or more processors that execute instructions to perform all or some steps of the above methods. In addition, processor 1220 may include processor 1
It may include one or more circuits that facilitate interaction between 220 and other components.
A processor may be a central processing unit (CPU), a microprocessor, a single-chip machine, a GPU, or the like.

メモリ1240は、コンピューティング環境1210の動作をサポートするための様々
なタイプのデータを格納するように構成される。そのようなデータの例は、コンピューテ
ィング環境1210で動作する任意のアプリケーションまたは方法に用いる命令、ビデオ
データ、画像データなどを含む。メモリ1240は、任意のタイプの揮発性または非揮発
性メモリデバイス、または、それらの組み合わせ、例えば、静的ランダムアクセスメモリ
(SRAM)、電気的に消去可能なプログラマブル読み取り専用メモリ(EEPROM)
、消去可能プログラマブル読み取り専用メモリ(EPROM)、プログラム可能な読み取
り専用メモリ(PROM)、読み取り専用メモリ(ROM)、磁気メモリ、フラッシュメ
モリ、磁気ディスクまたは光ディスクを使用して実現できる。
Memory 1240 is configured to store various types of data to support operation of computing environment 1210 . Examples of such data include instructions, video data, image data, etc. for any application or method operating in computing environment 1210 . Memory 1240 may be any type of volatile or non-volatile memory device or combination thereof, such as static random access memory (SRAM), electrically erasable programmable read only memory (EEPROM).
, erasable programmable read-only memory (EPROM), programmable read-only memory (PROM), read-only memory (ROM), magnetic memory, flash memory, magnetic disk or optical disk.

I/Oインターフェース1250は、プロセッサ1220と、キーボード、クリックホ
イール、ボタンなどの周辺インターフェースモジュールとの間のインターフェースを提供
する。ボタンには、ホームボタン、スキャン開始ボタン、およびスキャン停止ボタンが含
まれるが、これらに限定されていない。I/Oインターフェース1250は、エンコーダ
およびデコーダと結合することができる。
I/O interface 1250 provides an interface between processor 1220 and peripheral interface modules such as keyboards, click wheels, buttons, and the like. Buttons include, but are not limited to, a home button, a start scan button, and a stop scan button. The I/O interface 1250 can be coupled with encoders and decoders.

一実施形態では、上記した方法を実行するために、コンピューティング環境1210内
のプロセッサ1220によって実行可能である、メモリ1240に含まれるような複数の
プログラムを含む非一時的なコンピュータ可読記憶媒体も提供される。例えば、非一時的
なコンピュータ可読記憶媒体は、ROM、RAM、CD-ROM、磁気テープ、フロッピ
ーディスク、光学データ記憶装置などであり得る。
One embodiment also provides a non-transitory computer-readable storage medium containing a plurality of programs, such as those contained in memory 1240, executable by processor 1220 in computing environment 1210 to perform the methods described above. be done. For example, a non-transitory computer-readable storage medium can be ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like.

非一時的なコンピュータ可読記憶媒体は、1つまたは複数のプロセッサを有するコンピ
ューティングデバイスによって実行するための複数のプログラムをその中に格納しており
、複数のプログラムは、1つまたは複数のプロセッサによって実行されると、コンピュー
ティングデバイスが上記した動作予測するための方法を実行するものである。
A non-transitory computer-readable storage medium having stored therein a plurality of programs for execution by a computing device having one or more processors, the plurality of programs being executed by the one or more processors. When executed, the computing device will perform the method for predicting behavior described above.

一実施形態では、コンピューティング環境1210は、上述した方法を実行するために
、1つまたは複数の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DS
P)、デジタル信号処理デバイス(DSPD)、プログラマブルロジックデバイス(PL
D)、フィールドプログラマブルゲートアレイ(FPGA)、グラフィカルプロセッシン
グユニット(GPU)、コントローラー、マイクロコントローラー、マイクロプロセッサ
ー、またはその他の電子コンポーネントにより実現できる。
In one embodiment, the computing environment 1210 includes one or more application specific integrated circuits (ASICs), digital signal processors (DS
P), Digital Signal Processing Device (DSPD), Programmable Logic Device (PL
D), can be implemented by a field programmable gate array (FPGA), graphical processing unit (GPU), controller, microcontroller, microprocessor or other electronic component.

Claims (16)

現在のコーディングブロックに関連付けられる参照画像リスト内の参照画像を取得することと、
現在の画像から前記参照画像への動きベクトルに基づいて、インター予測を生成することと、
前記現在のコーディングブロックに関連付けられるイントラ予測モードを取得することと、
前記イントラ予測モードに基づいて、前記現在のコーディングブロックのイントラ予測を生成することと、
前記インター予測と前記イントラ予測を加重平均することにより、前記現在のコーディングブロックの最終予測を生成することと、
隣接するコーディングブロックの最も可能性の高いモード(MPM)リストが構築される時に、前記現在のコーディングブロックがインターモードとして扱われると特定し、且つ、前記現在のコーディングブロックのイントラモードを使用不可としてマークすることと、
を含むビデオコーディングの方法であって、
双方向オプティカルフロー(BDOF)動作は、前記現在のコーディングブロックに対して、無効にされている、ビデオコーディングの方法。
obtaining a reference image in a reference image list associated with the current coding block;
generating an inter-prediction based on motion vectors from a current image to the reference image;
obtaining an intra-prediction mode associated with the current coding block;
generating an intra prediction for the current coding block based on the intra prediction mode;
weighted averaging the inter prediction and the intra prediction to generate a final prediction for the current coding block;
specifying that the current coding block is to be treated as inter mode and disabling intra mode for the current coding block when a most probable mode (MPM) list of neighboring coding blocks is constructed; marking and
A method of video coding comprising:
A method of video coding, wherein a bidirectional optical flow (BDOF) operation is disabled for the current coding block.
前記現在のコーディングブロックが前記参照画像リストL0内の1つの参照画像から予測されるときに、前記参照画像リストはL0である、請求項1に記載の方法。 2. The method of claim 1, wherein the reference picture list is L0 when the current coding block is predicted from one reference picture in the reference picture list L0. 前記現在のコーディングブロックが前記参照画像リストL1内の1つの参照画像から予測されるときに、前記参照画像リストはL1である、請求項1に記載の方法。 The method of claim 1, wherein the reference picture list is L1 when the current coding block is predicted from one reference picture in the reference picture list L1. 前記現在のコーディングブロックが、前記参照画像リストL0内の1つの第1の参照画像と前記参照画像リストL1内の1つの第2の参照画像から予測されるときに、前記参照画像リストはL0である、請求項1に記載の方法。 The reference picture list is L0 when the current coding block is predicted from one first reference picture in the reference picture list L0 and one second reference picture in the reference picture list L1. 2. The method of claim 1, wherein there is 前記現在のコーディングブロックが、前記参照画像リストL0内の1つの第1の参照画像と前記参照画像リストL1内の1つの第2の参照画像から予測されるときに、前記参照画像リストはL1である、請求項1に記載の方法。 The reference picture list is L1 when the current coding block is predicted from one first reference picture in the reference picture list L0 and one second reference picture in the reference picture list L1. 2. The method of claim 1, wherein there is 前記参照画像リストは、前記現在のコーディングブロックが、前記参照画像リストL0内の1つの第1の参照画像と前記参照画像リストL1内の1つの第2の参照画像から予測されるときに、前記現在の画像までの画像順序カウント(POC)距離がより小さい1つの参照画像に関連付けられるものである、請求項1に記載の方法。 When the current coding block is predicted from one first reference image in the reference image list L0 and one second reference image in the reference image list L1, the reference image list includes the 2. The method of claim 1, wherein the picture order count (POC) distance to the current picture is the one associated with the smaller reference picture. 前記現在のコーディングブロックは、MPMベースのイントラモード予測に対して、インターモードとして扱われる、請求項1に記載の方法。 2. The method of claim 1, wherein the current coding block is treated as inter-mode for MPM-based intra-mode prediction. 1つまたは複数のプロセッサと、前記1つまたは複数のプロセッサに結合される1つまたは複数の記憶装置とを含むビデオコーディングデバイスであって、
現在のコーディングブロックに関連付けられる参照画像リスト内の参照画像を取得することと、
現在の画像から前記参照画像への動きベクトルに基づいて、インター予測を生成することと、
前記現在のコーディングブロックに関連付けられるイントラ予測モードを取得することと、
前記イントラ予測モードに基づいて、前記現在のコーディングブロックのイントラ予測を生成することと、
前記インター予測と前記イントラ予測を加重平均することにより、前記現在のコーディングブロックの最終予測を生成することと、
隣接するコーディングブロックの最も可能性の高いモード(MPM)リストが構築される時に、前記現在のコーディングブロックがインターモードとして扱われると特定し、且つ、前記現在のコーディングブロックのイントラモードを使用不可としてマークすることと、
を含む動作が実行するように構成されるビデオコーディングデバイスであって、
双方向オプティカルフロー(BDOF)動作は、前記現在のコーディングブロックに対して、無効にされている、ビデオコーディングデバイス
A video coding device comprising one or more processors and one or more storage devices coupled to the one or more processors,
obtaining a reference image in a reference image list associated with the current coding block;
generating an inter-prediction based on motion vectors from a current image to the reference image;
obtaining an intra-prediction mode associated with the current coding block;
generating an intra prediction for the current coding block based on the intra prediction mode;
weighted averaging the inter prediction and the intra prediction to generate a final prediction for the current coding block;
specifying that the current coding block is to be treated as inter mode and disabling intra mode for the current coding block when a most probable mode (MPM) list of neighboring coding blocks is constructed; marking and
A video coding device configured to perform an operation comprising:
A video coding device , wherein bidirectional optical flow (BDOF) operation is disabled for the current coding block.
前記現在のコーディングブロックが前記参照画像リストL0内の1つの参照画像から予測されるときに、前記参照画像リストはL0である、請求項8に記載のビデオコーディングデバイス。 9. The video coding device of claim 8, wherein the reference picture list is L0 when the current coding block is predicted from one reference picture in the reference picture list L0. 前記現在のコーディングブロックが前記参照画像リストL1内の1つの参照画像から予測されるときに、前記参照画像リストはL1である、請求項8に記載のビデオコーディングデバイス。 9. The video coding device of claim 8, wherein the reference picture list is L1 when the current coding block is predicted from one reference picture in the reference picture list L1. 前記現在のコーディングブロックが、前記参照画像リストL0内の1つの第1の参照画像と前記参照画像リストL1内の1つの第2の参照画像から予測されるときに、前記参照画像リストはL0である、請求項8に記載のビデオコーディングデバイス。 The reference picture list is L0 when the current coding block is predicted from one first reference picture in the reference picture list L0 and one second reference picture in the reference picture list L1. 9. The video coding device of claim 8, wherein a 前記現在のコーディングブロックが、前記参照画像リストL0内の1つの第1の参照画像と前記参照画像リストL1内の1つの第2の参照画像から予測されるときに、前記参照画像リストはL1である、請求項8に記載のビデオコーディングデバイス。 The reference picture list is L1 when the current coding block is predicted from one first reference picture in the reference picture list L0 and one second reference picture in the reference picture list L1. 9. The video coding device of claim 8, wherein a 前記参照画像リストは、前記現在のコーディングブロックが、前記参照画像リストL0
内の1つの第1の参照画像と前記参照画像リストL1内の1つの第2の参照画像から予測されるときに、前記現在の画像までの画像順序カウント(POC)距離がより小さい1つの参照画像に関連付けられるものである、請求項8に記載のビデオコーディングデバイス。
The reference picture list is such that the current coding block corresponds to the reference picture list L0.
and one reference image in the reference image list L1 that has a smaller picture order count (POC) distance to the current image when predicted from one second reference image in the reference image list L1. 9. A video coding device according to claim 8, associated with an image.
前記現在のコーディングブロックは、MPMベースのイントラモード予測に対して、インターモードとして扱われる、請求項8に記載のビデオコーディングデバイス。 9. The video coding device of claim 8, wherein the current coding block is treated as inter-mode for MPM-based intra-mode prediction. 1つまたは複数のプロセッサを有するコンピューティングデバイスによって実行される複数のプログラムを格納する非一時的なコンピュータ可読記憶媒体であって、
前記複数のプログラムは、前記1つまたは複数のプロセッサによって実行されると、請求項1~7のいずれかに記載の方法を、前記コンピューティングデバイスに実行させる、非一時的なコンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium storing a plurality of programs to be executed by a computing device having one or more processors,
A non-transitory computer-readable storage medium that, when executed by the one or more processors, causes the computing device to perform the method of any one of claims 1 to 7.
プロセッサによって実行されるときに、請求項1~7のいずれかに記載の方法のステップを実施するインストラクションを含むコンピュータプログラム。 A computer program comprising instructions for performing the steps of the method according to any one of claims 1 to 7 when executed by a processor.
JP2021127431A 2019-01-09 2021-08-03 Video coding method, video coding device, computer readable storage medium and computer program Active JP7303255B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022088741A JP2022119936A (en) 2019-01-09 2022-05-31 System and method for improving composite inter and intra prediction
JP2023133311A JP2023156465A (en) 2019-01-09 2023-08-18 Method for video coding, video coding device, non-temporal computer readable storage medium, bit stream, and computer program in bit stream
JP2023138923A JP2023162338A (en) 2019-01-09 2023-08-29 Video coding method, video coding device, non-temporary computer readable storage medium, bit stream and computer program in bit stream

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962790421P 2019-01-09 2019-01-09
US62/790,421 2019-01-09
JP2021540266A JP7223858B2 (en) 2019-01-09 2020-01-09 Video coding method, video coding device, computer readable storage medium and computer program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021540266A Division JP7223858B2 (en) 2019-01-09 2020-01-09 Video coding method, video coding device, computer readable storage medium and computer program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022088741A Division JP2022119936A (en) 2019-01-09 2022-05-31 System and method for improving composite inter and intra prediction

Publications (2)

Publication Number Publication Date
JP2021192510A JP2021192510A (en) 2021-12-16
JP7303255B2 true JP7303255B2 (en) 2023-07-04

Family

ID=78890655

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2021127431A Active JP7303255B2 (en) 2019-01-09 2021-08-03 Video coding method, video coding device, computer readable storage medium and computer program
JP2022088741A Pending JP2022119936A (en) 2019-01-09 2022-05-31 System and method for improving composite inter and intra prediction
JP2022109740A Pending JP2022172057A (en) 2019-01-09 2022-07-07 System and method for improving combined inter and intra prediction
JP2023133311A Pending JP2023156465A (en) 2019-01-09 2023-08-18 Method for video coding, video coding device, non-temporal computer readable storage medium, bit stream, and computer program in bit stream
JP2023138923A Pending JP2023162338A (en) 2019-01-09 2023-08-29 Video coding method, video coding device, non-temporary computer readable storage medium, bit stream and computer program in bit stream

Family Applications After (4)

Application Number Title Priority Date Filing Date
JP2022088741A Pending JP2022119936A (en) 2019-01-09 2022-05-31 System and method for improving composite inter and intra prediction
JP2022109740A Pending JP2022172057A (en) 2019-01-09 2022-07-07 System and method for improving combined inter and intra prediction
JP2023133311A Pending JP2023156465A (en) 2019-01-09 2023-08-18 Method for video coding, video coding device, non-temporal computer readable storage medium, bit stream, and computer program in bit stream
JP2023138923A Pending JP2023162338A (en) 2019-01-09 2023-08-29 Video coding method, video coding device, non-temporary computer readable storage medium, bit stream and computer program in bit stream

Country Status (1)

Country Link
JP (5) JP7303255B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022511850A (en) 2018-12-07 2022-02-01 華為技術有限公司 Corresponding method of derivation of boundary strength of encoder, decoder, and deblocking filter

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108632608B (en) * 2011-09-29 2022-07-29 夏普株式会社 Image decoding device, image decoding method, image encoding device, and image encoding method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022511850A (en) 2018-12-07 2022-02-01 華為技術有限公司 Corresponding method of derivation of boundary strength of encoder, decoder, and deblocking filter

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Benjamin Bross et al., "Versatile Video Coding (Draft 3)", Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 12th Meeting:Macao、CN,3-12 Oct.2018 Document:JVET-L1001-v9(version 13)、中国、2019年1月8日、pp.154-157
Jianle Chen et al., "Algorithm description for Versatile Video Coding and Test Model 3 (VTM 3)", Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 12th Meeting:Macao,CN,3-12 Oct.2018 Document:JVET-L1002-v1(version 2)、中国、2018-12-24、pp.35-36

Also Published As

Publication number Publication date
JP2022119936A (en) 2022-08-17
JP2023162338A (en) 2023-11-08
JP2021192510A (en) 2021-12-16
JP2022172057A (en) 2022-11-15
JP2023156465A (en) 2023-10-24

Similar Documents

Publication Publication Date Title
US11172203B2 (en) Intra merge prediction
US11962770B2 (en) Methods and devices for intra sub-partition coding mode
JP7313533B2 (en) Method and Apparatus in Predictive Refinement by Optical Flow
US20230051193A1 (en) System and method for combined inter and intra prediction
EP4032298A1 (en) Methods and apparatus for prediction refinement with optical flow
JP2023100979A (en) Methods and apparatuses for prediction refinement with optical flow, bi-directional optical flow, and decoder-side motion vector refinement
JP7303255B2 (en) Video coding method, video coding device, computer readable storage medium and computer program
JP7198949B2 (en) Motion vector prediction for video coding
JP7247345B2 (en) Video decoding method, video decoding device, and program
CN113542748B (en) Video encoding and decoding method, apparatus, and non-transitory computer readable storage medium
KR102450491B1 (en) System and method for combined inter and intra prediction
WO2024016955A1 (en) Out-of-boundary check in video coding

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210803

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210803

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220531

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220531

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220608

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220614

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20220805

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20220809

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220830

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20221122

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20221206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230302

C302 Record of communication

Free format text: JAPANESE INTERMEDIATE CODE: C302

Effective date: 20230327

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230330

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20230425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230622

R150 Certificate of patent or registration of utility model

Ref document number: 7303255

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150