JP7346599B2 - ビデオ・データ処理方法、装置、記憶媒体及び記憶方法 - Google Patents

ビデオ・データ処理方法、装置、記憶媒体及び記憶方法 Download PDF

Info

Publication number
JP7346599B2
JP7346599B2 JP2021571828A JP2021571828A JP7346599B2 JP 7346599 B2 JP7346599 B2 JP 7346599B2 JP 2021571828 A JP2021571828 A JP 2021571828A JP 2021571828 A JP2021571828 A JP 2021571828A JP 7346599 B2 JP7346599 B2 JP 7346599B2
Authority
JP
Japan
Prior art keywords
block
prediction
mode
video
coding mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021571828A
Other languages
English (en)
Other versions
JP2022535544A (ja
Inventor
ザン,リー
ザン,カイ
リュウ,ホンビン
ワン,ユエ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Original Assignee
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd, ByteDance Inc filed Critical Beijing ByteDance Network Technology Co Ltd
Publication of JP2022535544A publication Critical patent/JP2022535544A/ja
Priority to JP2023144057A priority Critical patent/JP2023166518A/ja
Application granted granted Critical
Publication of JP7346599B2 publication Critical patent/JP7346599B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Description

関連出願の相互参照
願は、2020年6月4日付けで出願された国際特許出願第PCT/CN2020/094310号に基づいており、同出願は2019年6月4日付で出願された国際特許出願第PCT/CN2019/089970号及び2019年9月7日付で出願された国際特許出願第PCT/CN2019/104810号に対する優先権及びその利益を主ている。前述の出願の全ての特許出願全体的に参照により本件に援用される。
技術分野
本件明細書はビデオ及び画像の符号化及び復号化技術に関連する。
背景
デジタル・ビデオは、インターネットや他のデジタル通信ネットワークにおける最大の帯域幅を占めている。ビデオを受信して表示することが可能な接続ユーザー・デバイスの台数が増加するにつれて、デジタル・ビデオの利用に対する帯域幅の需要は増加し続けるであろうということが予想される。
開示される技術は、三角パーティション化モードのような非矩形パーティション化を用いてビデオ・ビットストリームの符号化又は復号化を実行するビデオ又は画像デコーダ又はエンコーダの実施形態によって使用される可能性がある。
一態様例ではビジュアル・メディア処理方法が開示される。方法は、ビジュアル・メディア・データの第1ビデオ・ブロックとビジュアル・メディア・データのビットストリーム表現との間の変換に関し、ビジュアル・メディア・データの第2ビデオ・ブロックの利用可能性を、ルールを用いて判定するステップと、判定に基づいて変換を実行するステップとを含み、ルールは、第1ビデオ・ブロックをビットストリーム表現にコーディングするために使用されるコーディング・モードに少なくとも基づいており、ルールは、第2ビデオ・ブロックを利用不能として取り扱うことによって、第2ビデオ・ブロックの動き情報が第1ブロックのマージ・リスト構築に使用されることを禁止することを規定している。
一態様例ではビジュアル・メディア処理方法が開示される。方法は、ビジュアル・メディア・データの第1ビデオ・ブロックとビジュアル・メディア・データのビットストリーム表現との間の変換に関し、ビジュアル・メディア・データの第2ビデオ・ブロックの利用可能性を、ルールを用いて判定するステップと、判定に基づいて変換を実行するステップとを含み、ルールは、ビジュアル・メディア・データの1つ以上のポジションにおいて、第2ビデオ・ブロックに関して利用可能性検査プロセスを使用することを規定している。
一態様例ではビジュアル・メディア処理方法が開示される。方法は、ビジュアル・メディア・データの現在のビデオ・ブロックとビジュアル・メディア・データのビットストリーム表現との間の変換に関し、現在のビデオ・ブロックのイントラ・ブロック・コピー動きリストを構築するために使用される2つのポジションを判定するステップと、イントラ・ブロック・コピー動きリストに基づいて変換を実行するステップとを含む。
一態様例ではビジュアル・メディア処理方法が開示される。方法は、ビジュアル・メディア・データの現在のビデオ・ブロックとビジュアル・メディア・データのコーディングされた表現との間の変換に関し、ルールに基づいて現在のビデオ・ブロックの組み合わせイントラ・インター予測に対する1つ以上のウェイトを導出するために隣接するブロックの利用可能性を判定するステップと、判定に基づいて変換を実行するステップとを含み、1つ以上のウェイトは、現在のビデオ・ブロックのインター予測のために指定される第1ウェイトと、現在のビデオ・ブロックのイントラ予測のために指定される第2ウェイトとを含み、ルールは、現在のビデオ・ブロックと隣接するブロックのコーディング・モードの比較を利用することを除外している。
別の態様例では、上記の方法はプロセッサを含むビデオ・デコーダ装置によって実行される可能性がある。
別の態様例では、上記の方法はプロセッサを含むビデオ・エンコーダ装置によって実行される可能性がある。
更に別の態様例では、これらの方法はプロセッサで実行することが可能な命令の形態で具現化され、コンピュータで読み取ることが可能なプログラム媒体に記憶されることが可能である。
これら及びその他の態様は本件明細書で更に説明される。
マージ候補リスト構築のための導出プロセスを示す。
空間マージ候補のポジションの例を示す。
空間マージ候補の冗長性検査のために考慮される候補ペアの例を示す。
N×2N及び2N×Nパーティションの第2PUに対するポジション例を示す。
時間的なマージ候補に関する動きベクトル・スケーリングの例を示す。
時間的なマージ候補C0及びC1に関する候補ポジション例を示す。
組み合わせられた双-予測マージ候補の例を示す。
動きベクトル予測候補に対する導出プロセスの例を示す。
空間的な動きベクトル候補に関する動きベクトル・スケーリングの例を示す。
4パラメータ・アフィン・モード(左)と6パラメータ・アフィン・モード(右)に関する簡略化したアフィン動きモデル例を示す。
サブ・ブロック当たりのアフィン動きベクトル場の例を示す。
アフィン・マージ・モードに関する例示的な候補ポジションを示す。
修正されたマージ・リスト構築プロセスの例を示す。
三角パーティションに基づくインター予測の一例を示す。
第1重み付け係数群を適用したCUの例を示す。
動きベクトル・ストレージの例を示す。
最終動きベクトル表現(UMVE)探索プロセスの例を示す。
UMVE探索ポイントの例を示す。
DMVRのリスト0とリスト1の間でミラーリングされたMVD(0,1)の例を示す。
1回の反復で検査される可能性のあるMVを示す。
イントラ・ブロック・コピーの例である。
ビデオ処理装置の一例のブロック図である。
ビデオ処理方法の一例のフローチャートである。
シェア・マージ領域(16×4サイズのSMR)とSMRでの3つのCUの例を示す。
開示される技術を実装することが可能な例示的なビデオ処理システムのブロック図である。
ビジュアル・メディア処理方法の例に関するフローチャートである。
ビジュアル・メディア処理方法の例に関するフローチャートである。
ビジュアル・メディア処理方法の例に関するフローチャートである。
ビジュアル・メディア処理方法の例に関するフローチャートである。
本件明細書は、解凍又は復号化されたデジタル・ビデオ又は画像の品質を改善するために、画像又はビデオ・ビットストリームのデコーダによって使用することが可能な様々な技術を提供する。簡潔さのために、用語「ビデオ」は、本件では、一連のピクチャ(伝統的にはビデオと呼ばれる)と個々の画像の両方を含むように使用される。更に、ビデオ・エンコーダが、更なる符号化のために使用される、復号化されたフレームを再構成するために、符号化のプロセス中にこれらの技術を実施することも可能である。
セクションの見出しは本件明細書では理解の容易化のために使用されており、実施形態や技術を、対応するセクションに限定するものではない。従って1つのセクション中の実施形態は他のセクション中の実施形態と組み合わせることが可能である。
1.概要
本件明細書はビデオ・コーディング技術に関連する。具体的には、三角予測モードを含むマージ・コーディングに関連する。これは、HEVCのような既存のビデオ・コーディング規格、又はファイナライズされる予定の規格(汎用ビデオ・コーディング)に適用される可能性がある。これは、将来のビデオ・コーディング規格又はビデオ・コーデックにも適用可能である可能性がある。
2.最初の検討
ビデオ・コーディング規格は、周知のITU-T及びISO/IEC規格の開発を通じて主に発展してきている。ITU-TはH.261とH.263を作成し、ISO/IECはMPEG-1とMPEG-4 Visualを作成し、2つの組織は共同してH.262/MPEG-2ビデオとH.264/MPEG-4アドバンスト・ビデオ・コーディング(AVC)とH.265/HEVC[1]規格とを作成した。H.262以来、ビデオ・コーディング規格はハイブリッド・ビデオ・コーディング構造に基づいており、そこでは時間的予測と変換コーディングが使用される。HEVCを越える将来のビデオ・コーディング技術を探求するため、2015年に共同ビデオ探査チーム(Joint Video Exploration Team,JVET)がVCEGとMPEGにより共同で設立された。それ以来、多くの新しい方法がJVETによって採用されており、共同探索モデル(Joint Exploration Model,JEM)[3][4]と名付けられる参照ソフトウェアに入れられている。2018年4月には、VCEG(Q6/16)とISO/IEC JTC1 SC29/WG11(MPEG)の共同ビデオ・エキスパートチーム(JVET)が発足し、HEVCと比較して50%のビットレート低減を目指すVVC規格に取り組んでいる。
VVCドラフトの最新バージョン、即ち多用途ビデオ・コーディング(ドラフト5)は次の場所にある:
http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/14_Geneva/wg11/JVET-N1001-v7.zip
VVC の最新のリファレンス・ソフトウェア、VTMと命名されるものは次の場所にある:
https://vcgit.hhi.fraunhofer.de/jvet/VVCSoftware_VTM/tags/VTM-5.0
2.1 HEVC/H.265におけるインター予測
インター・コーディングされるコーディング・ユニット(CU)は、パーティション・モードに従って1つの予測ユニット(prediction uni,PU)、2つのPUでコーディングされる可能性がある。各インター予測PUは、1つ又は2つの参照ピクチャ・リストに関する動きパラメータを有する。動きパラメータは、動きベクトルと参照ピクチャ・インデックスを含む。2つの参照ピクチャ・リストの1つの使用は、inter_pred_idcを使用してシグナリングされてもよい。動きベクトルは、予測子に対するデルタ(deltas)として明示的にコーディングされてもよい。
CUがスキップ・モードでコーディングされる場合、1つのPUがCUに関連付けられ、有意の残差係数、コーディングされた動きベクトル・デルタ、又は参照ピクチャ・インデックスは存在しない。マージ・モードが規定されており、それによって、現在のPUに関する動きパラメータは、空間的及び時間的な候補を含む隣接するPUから取得される。マージ・モードは、スキップ・モードに対してだけでなく、任意のインター予測されたPUに適用することが可能である。マージ・モードに代わるものは、動きパラメータの明示的な伝送であり、その場合、動きベクトル(より正確には、動きベクトル予測子と比較した際の動きベクトル差分(motion vector differences,MVD))、各々の参照ピクチャ・リストの対応する参照ピクチャ・インデックス、及び参照ピクチャ・リストの用法は、各々のPUごとに明示的にシグナリングされる。このようなモードは、本開示においては、アドバンスト動きベクトル予測(Advanced motion vector prediction,AMVP)と名付けられる。
2つの参照ピクチャ・リストのうちの1つが使用されるべきであることを示すシグナリングを行う場合、PUは1ブロックのサンプルから生成される。これは「片-予測(uni-prediction)」と呼ばれる。片-予測は、Pスライス及びBスライス双方に利用可能である[2]。
両方の参照ピクチャ・リストが使用されるべきであることを示すシグナリングを行う場合、PUは2ブロックのサンプルから生成される。これは「双-予測(bi-prediction)」と呼ばれる。双-予測は、Bスライスに対してのみ利用可能である。
以下、HEVCで規定されているインター予測モードに関する詳細を説明する。説明はマージ・モードから始まることになる。
2.1.1. 参照ピクチャ・リスト
HEVCでは、現在の復号化されたピクチャ以外の参照ピクチャのデータ要素(例えば、サンプル値、動きベクトル)から導出される予測を意味するために、インター予測という用語が使用される。H.264/AVCでも同様に、ピクチャは複数の参照ピクチャから予測されることが可能である。インター予測のために使用される参照ピクチャは、1つ以上の参照ピクチャ・リストにおいて組織される。参照インデックスは、リスト内の参照ピクチャのうちの何れが、予測信号を作成するために使用されるべきであるかを識別する。
シングル参照ピクチャ・リスト、List0がPスライスのために使用され、2つの参照ピクチャ・リスト、List0とList1がBスライスのために使用される。List0/1に含まれる参照ピクチャは、捕捉/表示順序で過去及び将来のピクチャからのものである可能性がある。
Figure 0007346599000001
これらのステップは図1にも概略的に示されている。空間的マージ候補の導出のために、5つの異なるポジションに位置する候補の中から、最大4つのマージ候補が選択される。時間的マージ候補の導出のために、2つの候補の中から、最大1つのマージ候補が選択される。デコーダでは、各PUに対して一定数の候補が仮定されているので、ステップ1から得られる候補の数が、スライス・ヘッダでシグナリングされるマージ候補の最大数(MaxNumMergeCand)に達しない場合には、追加候補が生成される。候補の数は一定であるので、最良のマージ候補のインデックスは、トランケーテッド単項二進化(truncated unary binarization,TU)を用いて符号化される。CUのサイズが8に等しい場合、現在のCUの全てのPUは単一のマージ候補リストを共有し、これは2N×2N予測ユニットのマージ候補リストに一致する。
以下、前述のステップに関連するオペレーションを詳述する。
2.1.2.2 空間候補導出
空間的マージ候補の導出では、図2に示されるポジションに位置する候補の中から、最大4つのマージ候補が選択される。導出の順序はA1,B1,B0,A0,B2である。ポジションB2は、ポジションA1,B1,B0,A0のうちの何れかのPUが利用可能でない場合(例えば、それが別のスライス又はタイルに属することが理由となる)又はイントラ・コーディングされる場合に限って考慮される。ポジションA1における候補が追加された後、残りの候補の追加は冗長性検査の対象となり、これは同一の動き情報を有する候補がリストから除外されることを保証し、その結果、コーディングの効率が改善される。演算の複雑性を低減するために、可能な候補ペアの全てが前述の冗長性検査で考慮されるわけではない。その代わりに、図3の矢印でリンクされるペアのみが考慮され、冗長性検査に使用される対応する候補が同じ動き情報を有しない場合にのみ、候補はリストに追加される。重複的な動き情報の別の発生元は、2Nx2Nとは異なるパーティションに関連付けられた「第2PU(second PU)」である。一例として、図4はN×2N及び2N×Nそれぞれの場合の第2PUを示す。現在のPUがN×2Nとしてパーティション化されている場合、ポジションA1における候補はリスト構築には考慮されない。実際、この候補を追加することによって、同じ動き情報を有する2つの予測ユニットが導出され、それは冗長であり、コーディング・ユニットにおいては1つのPUを有するだけである。同様に、現在のPUが2N×Nにパーティション化される場合、ポジションB1は考慮されません
2.1.2.3 時間候補導出
このステップでは、1つの候補のみがリストに追加される。特に、この時間的マージ候補の導出では、スケーリングされた動きベクトルが、同等位置のピクチャ(co-located picture)における同等位置のPUに基づいて導出される。時間的マージ候補のためのスケーリングされた動きベクトルは、図5において点線によって示されているように取得され、これは、POC距離、tb及びtdを用いて、同時位置のPUの動きベクトルからスケーリングされ、ここで、tbは現在のピクチャの参照ピクチャと現在のピクチャとの間のPOC差分であるように定義され、tdは同等位置のピクチャの参照ピクチャと同等位置のピクチャとの間のPOC差分であるように定義される。時間的なマージ候補の参照ピクチャ・インデックスはゼロに等しく設定される。スケーリング・プロセスの実用的な実現は、HEVC仕様[1]に記載されている。Bスライスでは、2つの動きベクトル(一方は参照ピクチャ・リスト0用であり、他方は参照ピクチャ・リスト1用である)が取得され、組み合わされて双-予測マージ候補を作成する。
Figure 0007346599000002
参照フレームに属する同等位置のPU (Y)では、時間的な候補に対するポジションは、図6に示すように、候補C0と候補C1の間で選択される。ポジションC0におけるPUが利用可能でない場合、又はイントラ・コーディングされる場合、又は現在のコーディング・ツリー・ユニット(別名CTU、最大コーディング・ユニット(largest coding unit,LCU))の行の外側にある場合、ポジションC1が使用される。そうではない場合、ポジションC0が時間的マージ候補の導出に使用される。
関連するシンタックス要素は、次のように説明される:
7.3.6.1. 一般的なスライス・セグメント・ヘッダ・シンタックス
Figure 0007346599000003
2.1.2.5 TMVP候補に対するMVの導出
より具体的には、TMVP候補を導出するために、以下のステップが実行される:
1)参照ピクチャ・リストX=0に設定し、ターゲット参照ピクチャは、リストXにおいてインデックスが0である参照ピクチャ(即ち、curr_ref)となる。同等位置の動きベクトルに関して導出プロセスを起動し、curr_refを指すリストXに関するMVを取得する。
2)現在のスライスがBスライスである場合、参照ピクチャ・リストをX=1に設定し、ターゲット参照ピクチャは、リストXにおいてインデックスが0に等しい参照ピクチャ(即ち、curr_ref)となる。同等位置の動きベクトルに関して導出プロセスを起動し、curr_refを指すリストXに関するMVを取得する。
同等位置の動きベクトルに対する導出プロセスは、次のサブ・セクション2.1.2.5.1で説明される。
2.1.2.5.1 同等位置の動きベクトルに対する導出プロセス
同等位置のブロックに関し、それは片-予測又は双-予測とともにイントラ又はインター・コーディングされる可能性がある。それがイントラ・コーディングされる場合、TMVP候補は利用不能であるように設定される。
リストAからの片-予測である場合、リストAの動きベクトルはターゲット参照ピクチャ・リストXにスケーリングされる。
双-予測であり、ターゲット参照ピクチャ・リストがXである場合、リストAの動きベクトルはターゲット参照ピクチャ・リストXにスケーリングされ、以下のルールに従ってAが決定される:
- 現在のピクチャと比較して参照ピクチャがより大きなPOC値を有しない場合、AはXに設定される。
- そうではない場合、Aはcollocated_from_l0_flagに等しく設定される。
JCTVC-W1005-v4における関連するワーキング・ドラフトは次のように記載されている:
Figure 0007346599000004
Figure 0007346599000005
Figure 0007346599000006
Figure 0007346599000007
Figure 0007346599000008
Figure 0007346599000009
Figure 0007346599000010
Figure 0007346599000011
2.1.2.6 追加候補挿入
空間的及び時間的なマージ候補のほかに、複合双-予測マージ候補(combined bi-predictive merge candidate)及びゼロ・マージ候補という2種類の追加的なマージ候補が存在する。複合双-予測マージ候補は、空間的及び時間的マージ候補を利用することによって生成される。複合双-予測マージ候補は、Bスライスに対してのみ使用される。複合双-予測候補は、初期候補の第1参照ピクチャ・リスト動きパラメータと、別の第2参照ピクチャ・リスト動きパラメータとを組み合わせることによって生成される。これらの2つのタプルが異なる動き仮説(different motion hypotheses)をもたらすならば、それらは新たな双-予測候補を形成するであろう。一例として、図7は、mvL0及びrefIdxL0又はmvL1及びrefIdxL1を有する、オリジナル・リスト(左側)内の2つの候補が、最終的なリスト(右側)に追加される複合双-予測マージ候補を作成するために使用される場合を示す。[1]で定義されるこれらの追加的なマージ候補を生成すると考えられる組み合わせに関する多数のルールが存在する。
マージ候補リストの残りのエントリを埋めるために、ゼロ動き候補が挿入され、そのため、MaxNumMergeCandキャパシティに該当する。これらの候補は、ゼロ空間変位と参照ピクチャ・インデックスとを有し、後者はゼロから始まり、新たなゼロ動き候補がリストに追加される毎に増やされる。最終的に、これらの候補に対して冗長性検査は実行されない。
2.1.3 AMVP
AMVPは、動きパラメータの明示的な伝送に使用される、動きベクトルの隣接するPUとの時空相関を利用する。各々の参照ピクチャ・リストに対して、最初に、左上の時間的に隣接するPUポジションの可用性を検査し、冗長的な候補を除去し、そしてゼロ・ベクトルを加えて候補リストを一定長にすることによって、動きベクトル候補リストが構築される。次いで、エンコーダは最良の予測子を候補リストから選択し、選択された候補を示す対応するインデックスを送信することができる。マージ・インデックス・シグナリングと同様に、最良の動きベクトル候補のインデックスは、トランケーテッド・ユーナリーを用いて符号化される。この場合に符号化されるべき最大値は2である(図8参照)。以下のセクションでは、動きベクトル予測候補の導出プロセスに関する詳細が説明される。
2.1.3.1 AMVP候補の導出
図8は、動きベクトル予測候補の導出プロセスをまとめたものである。
動きベクトル予測では、空間的な動きベクトル候補と時間的な動きベクトル候補という2種類の動きベクトル候補が考慮される。空間的な動きベクトル候補の導出のために、2つの動きベクトル候補は、最終的には図2に示されるような5つの異なるポジションに位置する各PUの動きベクトルに基づいて導出される。
時間的な動きベクトル候補の導出のために、1つの動きベクトル候補が、2つの異なる同等位置に基づいて導出される2つの候補の中から導出される。時空候補の第1リストが作成された後、リスト内の重複した動きベクトル候補は除外される。潜在的な候補の数が2よりも多い場合、動きベクトル候補であって、関連する参照ピクチャ・リスト内でその参照ピクチャ・インデックスが1より大きなものは、リストから除外される。時空間動きベクトル候補の数が2より少ない場合、追加的なゼロ動きベクトル候補がリストに追加される。
2.1.3.2 空間的な動きベクトル候補
空間的な動きベクトル候補の導出では、最大2つの候補が5つの潜在的な候補の中から考慮され、候補は図2に示すようなポジションに位置するPUから導出され、それらのポジションは動きマージのものと同じである。現在のPUの左側に関する導出の順序は、A0,A1,スケーリングされたA0,スケーリングされたA1として定義される。現在のPUの上側に関する導出の順序は、B0,B1,B2,スケーリングされたB0,スケーリングされたB1,スケーリングされたB2として定義される。従って、各々の側に関し、動きベクトル候補として使用することが可能な4つのケースが存在し、2つのケースは空間的なスケーリングを使用する必要がなく、2つのケースは空間的なスケーリングを使用する。4つの異なるケースは次のようにまとめられる。
・空間的スケーリングなし
-(1)同じ参照ピクチャ・リスト、及び同じ参照ピクチャ・インデックス(同じPOC)
-(2)異なる参照ピクチャ・リスト、但し同じ参照ピクチャ(同じPOC)
・空間的スケーリング
-(3)同じ参照ピクチャ・リスト、但し異なる参照ピクチャ(異なるPOC)
-(4)異なる参照ピクチャ・リスト、及び異なる参照ピクチャ(異なるPOC)
空間的スケーリング無しのケースが最初に検査され、空間的スケーリングが後に続く。空間的スケーリングは、参照ピクチャ・リストによらず、POCが、隣接するPUの参照ピクチャと現在のPUの参照ピクチャとの間で異なる場合に考慮される。左の候補の全てのPUが利用可能でないか、又はイントラ・コーディングされる場合、上の動きベクトルに関するスケーリングが、左及び上のMV候補の並列的な導出を支援するために許容される。そうではない場合、空間的なスケーリングは、上の動きベクトルに対して許されない。
空間的なスケーリング・プロセスにおいて、隣接するPUの動きベクトルは、図9に示すように、時間的スケーリングの場合と同様な方法でスケーリングされる。主な相違は、現在のPUのインデックスと参照ピクチャ・リストが入力として与えられることであり、実際のスケーリング・プロセスは時間的なスケーリングによるものと同じである。
2.1.3.3 時間的な動きベクトル候補
参照ピクチャ・インデックスの導出の場合を除き、時間的なマージ候補の導出のための全てのプロセスは、空間的な動きベクトル候補の導出に関するものと同じである(図6参照)。参照ピクチャ・インデックスはデコーダにシグナリングされる。
2.2 VVCにおけるインター予測方法
インター予測を改善するための幾つかの新しいコーディング・ツール、例えばMVDをシグナリングするための適応動きベクトル差分レゾリューション(AMVR)、動きベクトル差分によるマージ(MMVD)、三角予測モード(TPM)、組み合わせイントラ・インター予測(CIIP)、アドバンストTMVP(ATMVP、又はSbTMVPとも言及される)、アフィン予測モード、一般化された双-予測(GBI)、デコーダ側動きベクトル・リファインメント(DMVR)、双方向オプティカル・フロー(BIO、又はBDOFとも言及される)等が存在する。
VVCでサポートされる3つの異なるマージ・リスト構築プロセスが存在する:
1)サブブロックマージ候補リスト:これはATMVPとアフィン・マージ候補を含む。1つのマージ・リスト構築プロセスが、アフィン・モードとATMVPモードの両方で共有される。ここでは、ATMVPとアフィン・マージ候補は順次追加されてもよい。サブ・ブロック・マージ・リストのサイズはスライス・ヘッダでシグナリングされ、最大値は5である。
2)レギュラー・マージ・リスト:インター・コーディングされるブロックに関し、1つのマージ・リスト構築プロセスが共有される。ここで、空間的/時間的なマージ候補、HMVP、ペアワイズ・マージ候補、及びゼロ動き候補は、順次挿入されてもよい。レギュラー・マージ・リスト・サイズはスライス・ヘッダでシグナリングされ、最大値は6である。MMVD,TPM,CIIPは、レギュラー・マージ・リストに依存する。
3)IBCマージ・リスト:レギュラー・マージ・リストと同様な方法で行われる。
同様に、VVCでサポートされる3つのAMVPリストが存在する:
1)アフィンAMVP候補リスト
2)レギュラーAMVP候補リスト
3)IBC AMVP候補リスト:JVET-N0843の採用に起因するIBCマージ・リストと同じ構築プロセス
2.2.1 VVCにおけるコーディング・ブロック構造
VVCでは、ピクチャを正方形又は長方形ブロックに分割するために、四分木/二分木/三分木(QT/BT/TT)構造が採用されている。
QT/BT/TTに加えて、Iフレームに関し、VVCでは、セパレート・ツリー(デュアル・コーディング・ツリーとも言及される)も採用されている。セパレート・ツリーでは、コーディング・ブロック構造はルマ及びクロマ成分に関して別々にシグナリングされる。
また、(例えば、PUはTUに等しいがCUより小さい場合のイントラ・サブ・パーティション予測、PUはCUに等しいがTUはPUより小さい場合のインター・コーディングされるブロックのサブ・ブロック変換などのような)特定のコーディング方法との組み合わせでコーディングされるブロックを除いて、CUはPU及びTUに等しく設定される。
2.2.2 アフィン予測モード
HEVCでは、動き補償予測(motion compensation prediction,MCP)については並進運動モデルのみが適用される。現実の世界では、ズームイン/アウト、回転、視点移動、その他の不規則な運動のような多くの種類の運動が存在する。VVCでは、簡略化したアフィン変換動き補償予測は、4パラメータ・アフィン・モデルと6パラメータ・アフィン・モデルを用いて適用される。図10に示すように、ブロックのアフィン運動場は、4パラメータ・アフィン・モデルについては2つの制御ポイント動きベクトル(CPMV)、6パラメータ・アフィン・モデルについては3つのCPMVによって記述される。
Figure 0007346599000012
動き補償予測を更にシンプルにするために、サブ・ブロック・ベースのアフィン変換予測が適用される。各M×Nサブ・ブロックの動きベクトルを導出するために(現在のVVCではM及びN双方は4に設定される)、各サブ・ブロックの中心サンプルの動きベクトルは、図11に示されるように、式(1)及び(2)に従って計算され、1/16端数精度に丸められる。次いで、1/16ペル(pel)の動き補償補間フィルタを適用して、導出された動きベクトルを有する各サブ・ブロックの予測を生成する。1/16‐pelの補間フィルタがアフィン・モードにより導入される。
MCPの後、各サブ・ブロックの高精度動きベクトルは丸められ、ノーマルな動きベクトルと同じ精度で保存される。
2.2.3 ブロック全体に対するMERGE
2.2.3.1 並進レギュラー・マージ・モードのマージ・リスト構築
2.2.3.1.1 履歴ベースの動きベクトル予測(HMVP)
マージ・リスト設計とは異なり、VVCでは、履歴ベースの動きベクトル予測(History-based Motion Vector Prediction,HMVP)法が採用されている。
HMVPでは、以前にコーディングされた動き情報は保存される。以前にコーディングされたブロックの動き情報は、HMVP候補として定義される。複数のHMVP候補は、HMVPテーブルと名付けられるテーブルに保存され、このテーブルは、符号化/復号化プロセス中にオン・ザ・フライで維持される。新たなタイル/LCU行/スライスを符号化/復号化し始める場合に、HMVPテーブルは空にされる。インター・コーディングされたブロック及び非サブ・ブロック、非TPMモードが存在する場合は常に、関連する動き情報は新たなHMVP候補としてテーブルの最後のエントリに追加される。全体的なコーディング・フローを図12に示されている。
2.2.3.1.2 レギュラー・マージ・リスト構築プロセス
レギュラー・マージ・リスト(並進運動用)の構築は、次のステップ・シーケンスによりまとめることができる:
● ステップ1:空間候補の導出
● ステップ2:HMVP候補の挿入
● ステップ3:ペアワイズ平均候補の挿入
● ステップ4:デフォルト動き候補
HMVP候補は、AMVP及びマージ候補リスト構築プロセスの両方で使用することができる。図13は、修正されたマージ候補リスト構築プロセスを示す(ドットを付したボックスで強調して示されている)。TMVP候補の挿入後に、マージ候補リストが満杯でない場合、HMVPテーブルに保存されているHMVP候補を使用して、マージ候補リストを満杯にすることができる。動き情報の観点から言えば、通常、1つのブロックは最も近い隣接ブロックと高い相関を有することを考慮して、テーブル中のHMVP候補はインデックスの降順で挿入される。テーブル中の最後のエントリはリストに最初に追加され、最初のエントリは最後に追加される。同様に、冗長性除去がHMVP候補に適用される。利用可能なマージ候補の総数が、シグナリングされように許容されるマージ候補の最大数に達すると、マージ候補リストの構築プロセスは終了する。
全ての空間/時間/HMVP候補は非IBCモードでコーディングされることになっている点に留意を要する。それ以外の場合、レギュラー・マージ候補リストに追加することは許容されない。
HMVPテーブルは、最大5つ通常の動き候補を含み、それらの各々は固有である。
2.2.3.1.2.1 プルーニング・プロセス
冗長検査に使用される対応する候補が同じ動き情報を有しない場合に、候補はリストに追加されるだけである。このような比較プロセスは、プルーニング・プロセスと呼ばれる。
空間候補内でのプルーニング・プロセスは、現在のブロックに対するTPMの使用に依存する。
現在のブロックが、TPMモードを利用せずにコーディングされる場合(例えば、レギュラー・マージ、MMVD、CIIP)、空間マージ候補に対するHEVCプルーニング・プロセス(即ち、5プルーニング)が使用される。
2.2.4 三角予測モード(TPM)
VVCでは、三角パーティション・モードがインター予測のためにサポートされている。三角パーティション・モードは、8×8以上のCUであってMMVD又はCIIPモードではなくマージ・モードでコーディングされたCUに適用されるだけである。これらの条件を満たすCUに関し、CUレベル・フラグは、三角パーティション・モードが適用されるか否かを示すためにシグナリングされる。
このモードが使用される場合、CUは、図14に示されように、対角分割又は反対角分割の何れかを用いて、2つの三角形のパーティションに均等に分割される。CU中の各三角パーティションは、それ自身の動きを用いてインター予測され:各パーティションに対して片-予測のみが許容され、即ち、各パーティションは1つの動きベクトルと1つの参照インデックスとを有する。従来の双-予測と同じく、各CUに対して唯2つの動き補償予測が必要とされることを保証するために、片-予測動き制約が適用される。
現在のCUが三角パーティション・モードを使用してコーディングされていることを、CUレベルのフラグが示す場合、三角パーティションの方向(対角又は反対角)を示すフラグと、2つのマージ・インデックス(各パーティションに対して1つ)とが更にシグナリングされる。各々の三角パーティションを予測した後、対角又は反対角エッジに沿うサンプル値は、適応ウェイトを用いる混合処理を使用して調整される。これは、CU全体に対する予測信号であり、変換及び量子化プロセスは、他の予測モードと同様にCU全体に対して適用されるであろう。最終的に、三角パーティション・モードを用いて予測されるCUの運動場は4×4ユニットで記憶される。
レギュラー・マージ候補リストは、余分な動きベクトルのプルーニングを行わずに三角パーティション・マージ予測のために再利用される。レギュラー・マージ候補リストの各マージ候補に対して、そのL0又はL1動きベクトルのうちの1つであるそれだけが三角予測に使用される。更に、L0 vs. L1動きベクトルを選択する順序は、そのマージ・インデックス・パリティに基づく。この方式を用いて、レギュラー・マージ・リストを直接的に使用することができる。
2.2.4.1 TPMに対するマージ候補リスト構築
基本的には、JVET-N0340で提案されているように、レギュラー・マージリスト構築プロセスが適用される。しかしながら、幾らかの修正が加えられる。
Figure 0007346599000013
Figure 0007346599000014
Figure 0007346599000015
Figure 0007346599000016
Figure 0007346599000017
Figure 0007346599000018
Figure 0007346599000019
Figure 0007346599000020
Figure 0007346599000021
Figure 0007346599000022
Figure 0007346599000023
Figure 0007346599000024
Figure 0007346599000025
Figure 0007346599000026
Figure 0007346599000027
Figure 0007346599000028
Figure 0007346599000029
Figure 0007346599000030
Figure 0007346599000031
Figure 0007346599000032
Figure 0007346599000033
Figure 0007346599000034
Figure 0007346599000035
Figure 0007346599000036
Figure 0007346599000037
Figure 0007346599000038
Figure 0007346599000039
Figure 0007346599000040
Figure 0007346599000041
2.2.4.4.1 復号化プロセス
JVET-N0340で提供されるような復号化プロセスは、以下のように定義される:
Figure 0007346599000042
Figure 0007346599000043
Figure 0007346599000044
双-予測ウェイト・インデックスbcwIdxは0に等しく設定される。
Figure 0007346599000045
Figure 0007346599000046
Figure 0007346599000047
Figure 0007346599000048
Figure 0007346599000049
Figure 0007346599000050
Figure 0007346599000051
Figure 0007346599000052
Figure 0007346599000053
Figure 0007346599000054
2.2.5 MMVD
JVET-L0054では、最終的な動きベクトル表現(UMVE、MMVDとしても知られる)が提示されている。UMVEは、提案される動きベクトル表現法を用いて、スキップ又はマージ・モードの何れかに使用される。
UMVEは、VVCのレギュラー・マージ候補リストに含まれるものと同じマージ候補を再利用する。マージ候補の中で、基本的な候補を選択することが可能であり、提案される動きベクトル表現法によって更に拡張される。
UMVEは、新たな動きベクトル差分(MVD)表現法を提供し、その方法ではMVDを表現するために、始点、運動の大きさ、運動方向が使用される。
この提案される技法はマージ候補リストをそのまま使用する。しかしながら、デフォルトのマージ・タイプ(MRG_TYPE_DEFAULT_N)である候補だけが、UMVEの拡張のために考慮される。
Figure 0007346599000055
Figure 0007346599000056
Figure 0007346599000057
Figure 0007346599000058
UMVEフラグは、スキップ・フラグ又はマージ・フラグを送信した直後にシグナリングされる。スキップ又はマージ・フラグが真である場合、UMVEフラグが解析される。UMVEフラグが1に等しい場合、UMVEシンタックスが解析される。しかしながら、1ではない場合、アフィン(AFFINE)フラグが解析される。アフィン・フラグが1に等しい場合、それはアフィン・モードであるが、1でなければ、スキップ/マージ・インデックスはVTMのスキップ/マージ・モードに関して解析される。
UMVE候補に起因する追加的なライン・バッファは必要とされない。ソフトウェアのスキップ/マージ候補がベース候補として直接的に使用されるからである。入力UMVEインデックスを用いて、MVの補足が動き補償の直前に決定される。このため、長いライン・バッファを保持する必要はない。
現在の共通テスト条件では、マージ候補リスト内の第1又は第2マージ候補を、ベース候補として選択することができる。
UMVEはMV差分を用いるマージ(Merge with MV Differences,MMVD)とも呼ばれる。
2.2.6 複合イントラ・インター予測(CIIP)
JVET-L0100では、複数の仮説予測が提案されており、複合イントラ&インター予測は、複数の仮説を生成する方法の1つである。
イントラ・モードを改善するために複数仮説予測が適用される場合、複数仮説予測は1つのイントラ予測と1つのマージ・インデックス予測を組み合わせる。マージCUでは、フラグが真である場合に、イントラ候補リストからイントラ・モードを選択するために、1つのフラグがマージ・モードのためにシグナリングされる。ルマ成分の場合、唯1つのイントラ予測モード、即ちプレーナ・モードから、イントラ候補リストが導出される。イントラ及びインター予測からの予測ブロックに適用されるウェイトは、2つの隣接するブロック(A1及びB1)のコーディングされたモード(イントラ又は非イントラ)によって決定される。
2.2.7 サブ・ブロック・ベース技術に関するマージ
非サブ・ブロック・マージ候補に対するレギュラー・マージ・リストに加えて、全てのサブ・ブロック関連の動き候補が、個々のマージ・リストに投入されることが提案される。
サブ・ブロック関連の動き候補は、別のマージ・リストに投入され、「サブ・ブロック・マージ候補リスト」と命名される。
一例において、サブ・ブロック・マージ候補リストは、ATMVP候補とアフィン・マージ候補を含む。
サブ・ブロック・マージ候補リストは、次の順序で候補が充填される:
a. ATMVP候補(利用可能又は利用不能である可能性がある);
b. アフィン・マージ・リスト(継承されたアフィン候補;及び構築されたアフィン候補を含む)
c. ゼロMV 4パラメータ・アフィン・モデルとしてのパディング
2.2.7.1.1 ATMVP(サブ・ブロック時間動きベクトル予測子,SbTMVPとしても知られている)
ATMVPの基本的なアイディアは、1ブロックに対して、時間的な動きベクトル予測子の複数セットを導出することである。各サブ・ブロックは、1セットの動き情報を割り当てられる。ATMVPマージ候補が生成されると、ブロック全体レベルではなく、8×8レベルで動き補償が行われる。
現行の設計では、ATMVPは、CU内のサブCUの動きベクトルを2ステップで予測し、そのステップは、以下の2つのサブ・セクション2.2.7.1.1.1及び2.2.7.1.1.2でそれぞれ説明されている。
Figure 0007346599000059
(現在のブロックの中心ポジションに、丸められたMVがプラスされ、必要に応じて一定の範囲内にクリップされた)対応するブロックが、初期化された動きベクトルを用いて、スライス・ヘッダでシグナリングされた同等位置のピクチャ内で識別される。
ブロックがインター・コーディングされる場合、第2ステップに進む。そうでない場合、ATMVP候補は、利用可能ではないと設定される。
2.2.7.1.1.2 サブCUの動き導出
第2ステップは、現在のCUをサブCUに分割し、同等位置のピクチャにおける各サブCUに対応するブロックから、各サブCUの動き情報を取得することである。
サブCUの対応するブロックがインター・モードでコーディングされている場合、従来のTMVPプロセスのプロセスと相違しない同等位置のMVに対する導出プロセスを呼び出すことによって、動き情報は、現在のサブCUの最終的な動き情報を導出するために利用される。基本的には、片-予測又は双-予測のターゲット・リストXから、対応するブロックが予測される場合に、動きベクトルが利用され;それ以外の場合、片-予測又は双-予測に対してリストY(Y=1-X)から予測され、NoBackwardPredFlagが1に等しいならば、リストYのMVが利用される。それ以外の場合、動き候補を発見することはできない。
初期化されたMV及び現在のサブCUの位置によって識別される同等位置のピクチャ内のブロックが、イントラ又はIBCコーディングされる場合、又は前述のように動き候補が発見できなかった場合、更に以下が適用される:
同等位置のピクチャRcolの運動場を取得するために使用される動きベクトルをMVcolと表すことにする。MVスケーリングに起因する影響を最小化するために、MVcolを導出するために使用される空間候補リスト中のMVは、次の方法で選択される:候補MVの参照ピクチャが同等位置のピクチャである場合、このMVが、如何なるスケーリングもせずにMVcolとして選択されて使用される。それ以外の場合、同等位置のピクチャに最も近い参照ピクチャを有するMVが、スケーリングとともにMVcolを導出するために選択される。
JVET-N1001における同等位置の動きベクトルの導出プロセスに関連する復号化プロセスが、太字の下線テキストで強調されたATMVPに関連する部分とともに、以下に説明される:
Figure 0007346599000060
Figure 0007346599000061
Figure 0007346599000062
Figure 0007346599000063
Figure 0007346599000064
Figure 0007346599000065
2.2.8 レギュラー・インター・モード(AMVP)
2.2.8.1 AMVP動き候補リスト
HEVCにおけるAMVP設計と同様に、高々2つのAMVP候補を導出することができる。しかしながら、HMVP候補はTMVP候補の後に追加されてもよい。HMVPテーブル内のHMVP候補は、インデックスの昇順で(即ち、0に等しいインデックス、最古のものから)トラバースされる。高々4つのHMVP候補は、その参照ピクチャがターゲットの参照ピクチャと同じ(即ち、同じPOC値)であるかどうかを見出すために検査される可能性がある。
2.2.8.2 AMVR
HEVCでは、use_integer_mv_flagがスライス・ヘッダで0に等しい場合、(動きベクトルとPUの予測された動きベクトルとの間の)動きベクトル差分(MVD)は、1/4ルマ・サンプルの単位でシグナリングされる。VVCでは局所適応動きベクトル分解能(AMVR)が導入されている。VVCでは、MVDは1/4ルマ・サンプル、整数ルマ・サンプル、又は4ルマ・サンプル(即ち、1/4-pel、1-pel、4-pel)の単位でコーディングことができる。MVD分解能は、コーディング・ユニット(CU)レベルで制御され、MVD分解能フラグは、少なくとも1つの非ゼロMVD成分を有する各CUに対して条件付きでシグナリングされる。
少なくとも1つの非ゼロMVD成分を有するCUの場合、第1フラグは、CUで1/4ルマ・サンプルMV精度が使用されるかどうかを示すためにシグナリングされる。第1フラグ(1に等しいもの)が1/4ルマ・サンプルMV精度は使用されていないことを示す場合、整数ルマ・サンプルMV精度又は4ルマ・サンプルMV精度が使用されているかどうかを示すために、別のフラグがシグナリングされる。
CUの第1MVD分解能フラグがゼロであるか、又はCUに対してコーディングされていない場合(CU内の全てのMVDがゼロであることを意味する)、1/4ルマ・サンプルMV分解能がCUに使用される。CUが整数ルマ・サンプルMV精度又は4ルマ・サンプルMV精度を使用する場合、CUに対するAMVP候補リストのMVPは、対応する精度に丸められる。
2.2.8.3 JVET-N1001-v2における対称動きベクトル差分
JVET-N1001-v2では、双-予測における動き情報コーディングに、対称動きベクトル差分(SMVD)が適用される。
先ず、スライス・レベルにおいて、SMVDモードで使用されるリスト0/1の参照ピクチャ・インデックスを示す変数RefIdxSymL0 及び RefIdxSymL1はそれぞれN1001-v2で指定されるように以下のステップを用いて導出されます。2つの変数のうちの少なくとも1つが-1に等しい場合、SMVDモードはディセーブルにされるものとする。
2.2.9 動き情報のリファインメント
2.2.9.1 デコーダ側の動きベクトル・リファインメント(DMVR)
双-予測演算では、1ブロック領域の予測のために、list0の動きベクトル(MV)とlist1のMVそれぞれを用いて形成される2つの予測ブロックを組み合わせて単一の予測信号を形成する。デコーダ側の動きベクトル・リファインメント(DMVR)法では、双-予測の2つの動きベクトルが更に精緻化される。
VVCにおけるDMVRについては、図19に示すように、リスト0とリスト1との間でMVDミラーリングが仮定されており、バイラテラル・マッチングを行ってMVを精緻化する、即ち、複数のMVD候補の中から最良のMVDを発見する。2つの参照ピクチャ・リストのMVを、MVL0(L0X, L0Y), 及び MVL1(L1X, L1Y)により表す。(例えば、SADのような)コスト関数を最小化することが可能なリスト0に関して(MvdX, MvdY)で示されるMVDは、最良のMVDとして定義される。SAD関数については、リスト0の参照ピクチャ内の動きベクトル(L0X+MvdX, L0Y+MvdY)で導出されたリスト0の参照ブロックと、リスト1の参照ピクチャ内の動きベクトル(L1X-MvdX, L1Y-MvdY)で導出されたリスト1の参照ブロックとの間のSADとして定義される。
動きベクトル・リファインメント処理は2回繰り返してもよい。各々の反復において、図20に示されるように、高々6つのMVD(整数ペル精度)が2つのステップで検査されることが可能である。第1ステップでは、MVD (0, 0), (-1, 0), (1, 0), (0, -1), (0, 1)が検査される。第2ステップでは、MVD (-1, -1), (-1, 1), (1, -1) 又は (1, 1)のうちの1つが選択されて更に検査されることが可能である。関数Sad(x, y)は、MVD (x, y)のSAD値を返すものと仮定する。第2ステップで検査される(MvdX, MvdY)により示されるMVDは次のように決定される:
MvdX = -1;
MvdY = -1;
If (Sad(1, 0) < Sad(-1, 0))
MvdX = 1;
If (Sad(0, 1) < Sad(0, -1))
MvdY = 1;
第1反復では、開始点はシグナリングされたMVであり、第2反復では、開始点は、シグナリングされたMVに、第1反復で選択された最良のMVDを加えたものである。1つの参照ピクチャが先行ピクチャであり、他の参照ピクチャが後続ピクチャであり、2つの参照ピクチャが現在のピクチャから同じピクチャ・オーダー・カウント距離をにある場合にのみ、DMVRが適用される。
Figure 0007346599000066
Figure 0007346599000067
Figure 0007346599000068
2.3 イントラ・ブロック・コピー
HEVCスクリーン・コンテンツ・コーディング拡張(HEVC-SCC)及び現在のVVCテスト・モデル(VTM-4.0)では、現在ピクチャ参照とも呼ばれるイントラ・ブロック・コピー(IBC)が採用されている。IBCは、動き補償の概念をインター・フレーム・コーディングからイントラ・フレーム・コーディングに拡張している。図21に示されているように、IBCが適用される場合、現在のブロックは同じピクチャ内の参照ブロックによって予測される。参照ブロック内のサンプルは、現在のブロックが符号化又は復号化される前に既に再構成されていなければならない。IBCは、ほとんどのカメラでキャプチャされたシーケンスに対してそれほど効率的ではないが、スクリーン・コンテンツに対して著しいコーディング・ゲインを示す。その理由は、スクリーン・コンテンツ・ピクチャには、アイコンやテキスト文字のような反復するパターンが多数存在するからである。IBCは、これらの反復するパターンの間の冗長性を効果的に除去することができる。HEVC‐SCCでは、インター・コーディングされるコーディング・ユニット(CU)は、現在のピクチャをその参照ピクチャとして選択する場合に、IBCを適用することができる。この場合、MVはブロック・ベクトル(BV)と改名され、BVは常に整数ピクセル精度を有する。メイン・プロファイルHEVCとの互換性を保つために、現在のピクチャは、デコード済みピクチャ・バッファ(DPB)において「長期」参照ピクチャ(“long-term” reference picture)としてマーキングされる。同様に、マルチ・ビュー/3Dビデオ・コーディング規格において、インター・ビュー参照ピクチャも「長期」参照ピクチャとしてマーキングされることに留意すべきである。
BVに続いて参照ブロックを見出した後に、参照ブロックをコピーすることによって予測を生成することができる。残差は、オリジナル信号から参照ピクセルを減算することによって取得することが可能である。その後、変換及び量子化を、他のコーディング・モードと同様に適用することができる。
しかしながら、参照ブロックが、ピクチャの外側にある、現在のブロックと重複している、再構成されたエリアの外側にある、又は何らかの制約によって制限される有効領域の外側にある場合、全部又は一部のピクセル値は定義されない。この問題に対処するためには、基本的に2つの解決策が存在する。1つは、例えばビットストリーム適合(bitstream conformance)において、そのような状況を許容しないことである。もう1つは、未定義のピクセル値にパディングを適用することである。以下のサブ・セッションは解決策を詳細に説明している。
2.3.1 VVCテストモデル(VTM4.0)におけるIBC
現在のVVCテスト・モデル、即ちVTM-4.0設計では、参照ブロック全体が現在のコーディング・ツリー・ユニット(CTU)とともにあるべきであり、現在のブロックとオーバーラップしていない。従って、参照又は予測ブロックをパディングする必要はない。IBCフラグは、現在のCUの予測モードとしてコーディング化される。従って、各CUに関し、MODE_INTRA, MODE_INTER 及び MODE_IBCという3つの予測モードがある
Figure 0007346599000069
空間マージ候補の導出では、図2に示されるようなA1, B1, B0, A0 及び B2に示すポジションに位置する候補の中から、最大4つのマージ候補が選択される。導出の順序はA1, B1, B0, A0 及び B2である。ポジションB2は、ポジションA1, B1, B0, A0のうちの何れのPUも利用可能でない場合(例えば、他のスライス又はタイルに属することに起因する)、又はIBCモードでコーディングされていない場合にのみ考慮される。ポジションA1における候補が追加された後、残りの候補の挿入は冗長性検査に供され、この検査は、同一の動き情報を有する候補がリストから除外され、コーディング効率が改善されるようにすることを保証する。
空間候補の挿入の後、IBCマージ・リスト・サイズが最大IBCマージ・リスト・サイズよりも依然として小さい場合、HMVPテーブルからのIBC候補が挿入されてもよい。HMVP候補を挿入する際に、冗長検査が実行される。
最終的に、ペアワイズ平均候補がIBCマージ・リストに挿入される。
マージ候補によって識別される参照ブロックが、ピクチャの外側にある、現在のブロックと重複している、再構成されたエリアの外側にある、又は何らかの制約によって制限される有効領域の外側にある場合、マージ候補は、無効なマージ候補と呼ばれます。
無効なマージ候補がIBCマージ・リストに挿入される可能性があることに留意を要する。
2.3.1.2 IBC AMVPモード
IBC AMVPモードでは、IBC AMVPリストのエントリを指し示すAMVPインデックスが、ビットストリームから解析される。IBC AMVPリストの構築は、以下のステップ・シーケンスにより要約することができる:
● ステップ1:空間候補の導出
○ 利用可能な候補が発見されるまで、A0, A1を検査する。
○ 利用可能な候補が発見されるまで、B0, B1, B2を検査する。
● ステップ2:HMVP候補の挿入
● ステップ3:ゼロ候補の挿入
空間候補の挿入の後に、IBC AMVPリスト・サイズがIBC 最大のAMVPリスト・サイズよりも依然として小さい場合、HMVPテーブルからのIBC候補が挿入される可能性がある。
最終的に、ゼロ候補がIBC AMVPリストに挿入される。
Figure 0007346599000070
Figure 0007346599000071
Figure 0007346599000072
Figure 0007346599000073
Figure 0007346599000074
Figure 0007346599000075
Figure 0007346599000076
Figure 0007346599000077
Figure 0007346599000078
Figure 0007346599000079
Figure 0007346599000080
Figure 0007346599000081
Figure 0007346599000082
Figure 0007346599000083
Figure 0007346599000084
Figure 0007346599000085
Figure 0007346599000086
Figure 0007346599000087
Figure 0007346599000088
Figure 0007346599000089
Figure 0007346599000090
Figure 0007346599000091
Figure 0007346599000092
Figure 0007346599000093
Figure 0007346599000094
Figure 0007346599000095
Figure 0007346599000096
Figure 0007346599000097
Figure 0007346599000098
Figure 0007346599000099
Figure 0007346599000100
Figure 0007346599000101
Figure 0007346599000102
Figure 0007346599000103
Figure 0007346599000104
Figure 0007346599000105
Figure 0007346599000106
Figure 0007346599000107
Figure 0007346599000108
Figure 0007346599000109
Figure 0007346599000110
Figure 0007346599000111
Figure 0007346599000112
Figure 0007346599000113
Figure 0007346599000114
Figure 0007346599000115
Figure 0007346599000116
Figure 0007346599000117
Figure 0007346599000118
Figure 0007346599000119
Figure 0007346599000120
Figure 0007346599000121
Figure 0007346599000122
Figure 0007346599000123
Figure 0007346599000124
Figure 0007346599000125
Figure 0007346599000126
Figure 0007346599000127
Figure 0007346599000128
Figure 0007346599000129
Figure 0007346599000130
Figure 0007346599000131
Figure 0007346599000132
Figure 0007346599000133
Figure 0007346599000134
Figure 0007346599000135
Figure 0007346599000136
Figure 0007346599000137
Figure 0007346599000138
Figure 0007346599000139
Figure 0007346599000140
Figure 0007346599000141
Figure 0007346599000142
Figure 0007346599000143
Figure 0007346599000144
Figure 0007346599000145
Figure 0007346599000146
Figure 0007346599000147
Figure 0007346599000148
Figure 0007346599000149
Figure 0007346599000150
Figure 0007346599000151
Figure 0007346599000152
Figure 0007346599000153
Figure 0007346599000154
Figure 0007346599000155
Figure 0007346599000156
図22は、ビデオ処理装置2200のブロック図である。装置2200は、本願で説明される1つ以上の方法を実装するために使用されてもよい。装置1500は、スマートフォン、タブレット、コンピュータ、モノのインターネット(Internet of Things,IoT)受信機などで具体化されてもよい。装置2200は、1つ以上のプロセッサ2202、1つ以上のメモリ2204、及びビデオ処理ハードウェア2206を含んでもよい。プロセッサ2202は、本文書で説明される1つ以上の方法を実装するように構成されてもよい。メモリ(memories)2204は、本願で説明される方法及び技術を実装するために使用されるデータ及びコードを記憶するために使用されてもよい。ビデオ処理ハードウェア2206は、ハードウェア回路において、本文書で説明される幾つかの技術を実装するために使用されてもよい。ビデオ処理ハードウェア2206は、専用ハードウェア、又はグラフィカル・プロセッサ・ユニット(GPU)、又は専用の信号処理ブロックの形態で、プロセッサ2202内に部分的に又は完全に含まれてもよい。
一部の実施形態は以下の条項に基づく説明を用いて述べることができる。
セクション4のアイテム1で説明される技術の幾つかの例示的な実施形態は、以下を含む:
1.ビデオ処理方法(例えば、図23に示される方法2300)であって、
前記現在のビデオ・ブロックは少なくとも2つの非矩形サブ・ブロックにパーティション化される三角パーティショニング・モード(triangular partition mode,TMP)を用いてパーティション化される現在のビデオ・ブロックのマージ・リスト構築にプルーニング・プロセスを適用するステップであって、前記プルーニング・プロセスは、非TMPパーティションを用いてパーティション化される別のビデオ・ブロックに対する別のプルーニング・プロセスと同じである、ステップ(2302)と、
前記ビデオ・ブロックと前記ビデオ・ブロックのビットストリーム表現との間の変換を、前記マージ・リスト構築に基づいて実行するステップ(2304)と
を含む方法。
2.前記プルーニング・プロセスは、前記現在のビデオ・ブロックの空間マージ候補に部分的なプルーニングを使用することを含む、クレーム1に記載の方法。
3.前記プルーニング・プロセスは、前記現在のビデオ・ブロックの寸法に基づいて完全な又は部分的なプルーニングを使用することを規定しているブロック寸法ルールに基づいて、完全な又は部分的なプルーニングを前記現在のビデオ・ブロックに適用することを含む、クレーム1に記載の方法。
前記プルーニング・プロセスは、マージ・リスト構築プロセスの間に、隣接するブロックの異なる順序を用いることを含む、クレーム1に記載の方法。
セクション4のアイテム2で説明される技術の幾つかの例示的な実施形態は、以下を含む:
1.ビデオ処理方法であって、
現在のビデオ・ブロックと現在のビデオ・ブロックのビットストリーム表現との間の変換中に、変換に対する代替テンポラル動きベクトル予測子コーディング(alternative temporal motion vector predictor coding,ATMVP)モードを、現在のビデオ・ブロックの隣接するブロックのリストXに基づいて判定するステップであって、Xは整数であり、Xの値は現在のビデオ・ブロックの符号化条件に依存している、ステップと、
ATMVPモードの利用可能性に基づいて変換を実行するステップと
を含む方法。
2.Xは同等位置のビデオ・ピクチャの位置を示し、そこから、現在のビデオ・ブロックとビットストリーム表現との間の変換に使用されるテンポラル動きベクトル予測が実行される、クレーム1に記載の方法。
現在のビデオ・ブロックに対する全ての参照リストにおける全ての参照ピクチャのピクチャ・オーダー・カウント(POC)を、現在のビデオ・ブロックの現在のビデオ・ピクチャのPOCと比較することによって、Xが決定される、クレーム1に記載の方法。
POCが現在のピクチャのPOC以下であることを上記の比較が示しているならば、X=1に設定し、そうでなければX=0に設定する、クレーム3に記載の方法。
履歴ベースの動きベクトル予測子テーブルに記憶された動き情報が、ATMVPモードにおいて動きベクトルを初期化するために使用される、クレーム1に記載の方法。
セクション4のアイテム3で説明される技術の幾つかの例示的な実施形態は、以下を含む:
1.ビデオ処理方法であって、
現在のビデオ・ブロックと現在のビデオ・ブロックのビットストリーム表現との間の変換中に、サブ・ブロック・ベースのコーディング技術が変換に使用されることを判定するステップであって、サブ・ブロック・ベースのコーディング技術では現在のビデオ・ブロックは少なくとも2つのサブ・ブロックにパーティション化され、各々のサブ・ブロックは自身の動き情報を導出することが可能である、ステップと、
コロケーション化された動きベクトルに関するブロック・ベースの導出プロセスを用いて整合された現在のビデオ・ブロックに関するマージ・リスト構築プロセスを利用して、変換を実行するステップと
を含む方法。
2.マージ・リスト構築プロセス及び導出プロセスは、リストYからの片-予測を実行することを含み、リストYの動きベクトルはターゲット参照ピクチャ・リストXにスケーリングされる、クレーム1に記載の方法。
3.マージ・リスト構築プロセス及び導出プロセスは、ターゲット参照ピクチャ・リストXを用いて双-予測を実行することを含み、リストYの動きベクトルはリストXのものにスケーリングされ、Yはルールに従って決定される、クレーム1に記載の方法。
セクション4のアイテム4で説明される技術の幾つかの例示的な実施形態は、以下を含む:
1.ビデオ処理方法であって、
ビデオ・ブロックの現在のビデオ・ブロックの寸法、及び/又は異なるコーディング・ツールからのマージ候補が共有されるマージ共有ステータスの使用可能性に基づいて、満たされている条件と満たされていない条件とを判定するステップと、
現在のビデオ・ブロックと現在のビデオ・ブロックのビットストリーム表現との間の変換を条件に基づいて実行するステップと
を含む方法。
2.変換を実行するステップは、条件が満たされている場合には、空間マージ候補を導出することをスキップするステップを含む、クレーム1に記載の方法。
3.変換を実行するステップは、条件が満たされている場合には、履歴ベースの動きベクトル候補を導出することをスキップするステップを含む、クレーム1に記載の方法。
現在のビデオ・ブロックが、ビデオ・ピクチャにおいて共有モード下にあることに基づいて、条件は満たされていると判定される、クレーム1-3のうちの何れかに記載の方法。
セクション4のアイテム5で説明される技術の幾つかの例示的な実施形態は、以下を含む:
1.ビデオ処理方法であって、
現在のビデオ・ブロックと現在のビデオ・ブロックのビットストリーム表現との間の変換中に、コーディング・ツールは変換に対してディセーブルにされていることを判定するステップであって、ビットストリーム表現は、コーディング・ツールに対するマージ候補の最大数がゼロである旨の指示を提供するように構成されている、ステップと、
コーディング・ツールはディセーブルにされている旨の判定を使用して、変換を実行するステップと
を含む方法。
2.コーディング・ツールは、現在のビデオ・ブロックのピクセルが現在のビデオ・ブロックのビデオ領域の他のピクセルからコーディングされるイントラ・ブロック・コピーに対応する、クレーム1に記載の方法。
3.コーディング・ツールはサブ・ブロック・コーディング・ツールである、クレーム1に記載の方法。
4.サブ・ブロック・コーディング・ツールは、アフィン・コーディング・ツール又は別の動きベクトル予測子ツールである、クレーム3に記載の方法。
5.変換を実行することは、コーディング・ツールに関連するシンタックス要素をスキップすることによって、ビットストリームを処理することを含む、クレーム1-4のうちの何れかに記載の方法。
セクション4のアイテム6で説明される技術の幾つかの例示的な実施形態は、以下を含む:
1.ビデオ処理方法であって、
現在のビデオ・ブロックと現在のビデオ・ブロックのビットストリーム表現との間の変換中に、ルールを利用して判定を行うステップであって、ルールは、ビットストリーム表現中に第1シンタックス要素は、変換中に使用されるコーディング・ツールにより使用されるマージ候補の最大数を示す第2シンタックス要素に基づいて、条件付きで存在することを規定している、ステップと、
現在のビデオ・ブロックと現在のビデオ・ブロックのビットストリーム表現との間の変換を上記の判定に基づいて実行するステップと
を含む方法。
2.第1シンタックス要素はマージ・フラグに対応する、クレーム1に記載の方法。
3.第1シンタックス要素はスキップ・フラグに対応する、クレーム1に記載の方法。
コーディング・ツールはサブ・バンド・コーディング・ツールであり、第2シンタックス要素は、サブ・バンド・コーディング・ツールに対する最大許容マージ候補に対応する、クレーム1-3のうちの何れかに記載の方法。
上記のセクションにおけるアイテム14-17に関し、以下の条項は幾つかの技術的な解決策を述べている。
ビデオ処理方法であって、
ビデオの第1ビデオ・ブロックのコーディングされた表現と第2ビデオ・ブロックとの間の変換に関し、変換中に利用可能性検査プロセスを使用して、第2ブロックの利用可能性を判定するステップであって、利用可能性検査プロセスは第1ビデオ・ブロックに対する少なくとも第1ポジション及び第2ポジションを検査する、ステップと、
判定の結果に基づいて変換を実行するステップと
を含む方法。
第1ポジションは左上ポジションに対応する、上記の方法。
第2ポジションは左上ポジションに対応する、上記の方法。
ビデオ処理方法であって、
ビデオのビデオ・ブロックのコーディングされた表現と第2ビデオ・ブロックとの間の変換に関し、ビデオ・ブロックに対する第1ポジションと第2ポジションにおけるイントラ・ブロック・コピー動き候補のリストを判定するステップと、
判定の結果に基づいて変換を実行するステップと
を含む方法。
第1ポジションは、ビデオ・ブロックの共有されるマージ領域の左上ポジションに対応する、上記の方法。
変換は、ビットストリーム表現を現在のビデオ・ブロックから生成することを含む、上記の条項のうちの何れかに記載の方法。
変換は、現在のビデオ・ブロックのサンプルを、ビットストリーム表現から生成することを含む、上記の条項のうちの何れかに記載の方法。
上記の条項のうちの何れか1つ以上に記載された方法を実行するように構成されたプロセッサを含むビデオ処理装置。
コードを記憶したコンピュータ読み取り可能な媒体であって、コードは、実行されると、上記の条項のうちの何れか1つ以上に記載された方法をプロセッサに実行させる、媒体。
図25は、本願で開示される種々の技術が実装され得る例示的なビデオ処理システム1900を示すブロック図である。種々の実装は、システム1900の構成要素の一部又は全部を含んでもよい。システム1900は、ビデオ・コンテンツを受信するための入力1922を含んでもよい。ビデオ・コンテンツは、生の又は非圧縮のフォーマット、例えば、8又は10ビットの多重成分ピクセル値で受信されてもよいし、又は圧縮された又は符号化されたフォーマットで受信されてもよい。入力1902は、ネットワーク・インターフェース、周辺バス・インターフェース、又はストレージ・インターフェースを表現している可能性がある。ネットワーク・インターフェースの例は、イーサーネット、光受動ネットワーク(PON)などの有線インターフェースや、Wi-Fi又はセルラー・インターフェースのような無線インターフェースを含む。
システム1900は、本文書で説明される種々のコーディング又は符号化方法を実装することが可能なコーディング構成要素1904を含んでもよい。コーディング構成要素1904は、コーディング構成要素1904の入力1902から出力までのビデオの平均ビットレートを低減して、ビデオのコーディングされた表現を生成することができる。従って、コーディング技術は、ビデオ圧縮又はビデオ・トランスコーディング技術と呼ばれることが間々ある。コーディング構成要素1904の出力は、記憶されてもよいし、あるいは構成要素1906によって表現されているように接続された通信を介して伝送されてもよい。入力1902で受信されたビデオの記憶又は通信されるビットストリーム(又はコーディングされた)表現は、ディスプレイ・インターフェース1910に送信されるピクセル値又は表示可能なビデオを生成するために、構成要素1908によって使用されてもよい。ビットストリーム表現から、ユーザーが視聴可能なビデオを生成するプロセスは、ビデオ解凍と呼ばれることが間々ある。更に、特定のビデオ処理演算は、「コーディングする」演算又はツールと称されるが、コーディング・ツール又は演算はエンコーダで使用され、コーディングの結果を逆向きに処理する対応する復号化ツール又は演算はデコーダで実行されるであろう、ということが理解されるであろう。
周辺バス・インターフェース又はディスプレイ・インターフェースの例は、ユニバーサル・シリアル・バス(USB)又は高解像度マルチメディア・インターフェース(HDMI(登録商標))、ディスプレイポート(Displayport)などを含む可能性がある。ストレージ・インターフェースの例は、シリアル・アドバンスト・テクノロジ・アタッチメント(serial advanced technology attachment,SATA)、PCI、IDEインターフェースなどを含む。本文書で説明される技術は、携帯電話、ラップトップ、スマートフォン、又はその他のデバイスであって、デジタル・データ処理及び/又はビデオ表示を実行することが可能なデバイス、のような種々の電子デバイスで具体化されることが可能である。
図26はビジュアル・メディア処理方法の例に関するフローチャートである。フローチャートのステップは、本明細書における実施形態13に関連して説明される。ステップ2602において、プロセスは、ビジュアル・メディア・データの第1ビデオ・ブロックとビジュアル・メディア・データのビットストリーム表現との間の変換に関し、ビジュアル・メディア・データの第2ビデオ・ブロックの利用可能性を、ルールを用いて判定する。ステップ2604において、プロセスは、判定に基づいて変換を実行し、ルールは、第1ビデオ・ブロックをビットストリーム表現にコーディングするために使用されるコーディング・モードに少なくとも基づいており、ルールは、第2ビデオ・ブロックを利用不能として取り扱うことによって、第2ビデオ・ブロックの動き情報が第1ブロックのマージ・リスト構築に使用されることを禁止することを規定している。
図27はビジュアル・メディア処理方法の例に関するフローチャートである。フローチャートのステップは、本明細書における実施形態14に関連して説明される。ステップ2702において、プロセスは、ビジュアル・メディア・データの第1ビデオ・ブロックとビジュアル・メディア・データのビットストリーム表現との間の変換に関し、ビジュアル・メディア・データの第2ビデオ・ブロックの利用可能性を、ルールを用いて判定する。ステップ2704において、プロセスは判定に基づいて前記変換を実行し、ルールは、ビジュアル・メディア・データの1つ以上のポジションにおいて、第2ビデオ・ブロックに関して利用可能性検査プロセスを使用することを規定している。
図28はビジュアル・メディア処理方法の例に関するフローチャートである。フローチャートのステップは、本明細書における実施形態15に関連して説明される。ステップ2802において、プロセスは、ビジュアル・メディア・データの現在のビデオ・ブロックとビジュアル・メディア・データのビットストリーム表現との間の変換に関し、現在のビデオ・ブロックのイントラ・ブロック・コピー動きリストを構築するために使用される2つのポジションを判定する。ステップ2804において、プロセスは、イントラ・ブロック・コピー動きリストに基づいて変換を実行する。
図29はビジュアル・メディア処理方法の例に関するフローチャートである。フローチャートのステップは、本明細書における実施形態16に関連して説明される。ステップ2902において、プロセスは、ビジュアル・メディア・データの現在のビデオ・ブロックとビジュアル・メディア・データのコーディングされた表現との間の変換に関し、ルールに基づいて現在のビデオ・ブロックの組み合わせイントラ・インター予測に対する1つ以上のウェイトを導出するために隣接するブロックの利用可能性を判定する。ステップ2904において、プロセスは、判定に基づいて変換を実行し、1つ以上のウェイトは、現在のビデオ・ブロックのインター予測のために指定される第1ウェイトと、現在のビデオ・ブロックのイントラ予測のために指定される第2ウェイトとを含み、ルールは、現在のビデオ・ブロックと隣接するブロックのコーディング・モードの比較を利用することを除外している。
本明細書の幾つかの実施形態をここに箇条書き形式で例示的に提示する。
A1. ビジュアル・メディア処理方法であって、
ビジュアル・メディア・データの第1ビデオ・ブロックとビジュアル・メディア・データのビットストリーム表現との間の変換に関し、ビジュアル・メディア・データの第2ビデオ・ブロックの利用可能性を、ルールを用いて判定するステップと、
判定に基づいて変換を実行するステップと
を含み、ルールは、第1ビデオ・ブロックをビットストリーム表現にコーディングするために使用されるコーディング・モードに少なくとも基づいており、ルールは、第2ビデオ・ブロックを利用不能として取り扱うことによって、第2ビデオ・ブロックの動き情報が第1ブロックのマージ・リスト構築に使用されることを禁止することを規定している、方法。
A2. 第1ビデオ・ブロックをコーディングするために使用されるコーディング・モードはインター・コーディングに対応し、ビジュアル・メディア・データの第2ビデオ・ブロックをコーディングするためのコーディング・モードはイントラ・ブロック・コピーに対応する、条項A1に記載の方法。
A3. 第1ビデオ・ブロックをコーディングするために使用されるコーディング・モードはイントラ・ブロック・コピーに対応し、ビジュアル・メディア・データの第2ビデオ・ブロックをコーディングするためのコーディング・モードはインター・コーディングに対応する、条項A1に記載の方法。
A4. 検査を実行することは:
第2ビデオ・ブロックの利用可能性を判定するために入力パラメータとして、第1ビデオ・ブロックをコーディングするために使用されるコーディング・モードを受信することを含む、条項A1に記載の方法。
B1. ビジュアル・メディア処理方法であって、
ビジュアル・メディア・データの第1ビデオ・ブロックとビジュアル・メディア・データのビットストリーム表現との間の変換に関し、ビジュアル・メディア・データの第2ビデオ・ブロックの利用可能性を、ルールを用いて判定するステップと、
判定に基づいて変換を実行するステップと
を含み、ルールは、ビジュアル・メディア・データの1つ以上のポジションにおいて、第2ビデオ・ブロックに関して利用可能性検査プロセスを使用することを規定している、方法。
B2. 1つ以上のポジションは、第1ビデオ・ブロックの左上ポジションに対応し、ルールは、第1ビデオ・ブロックのコーディング・モードが第2ビデオ・ブロックのコーディング・モードと同じでない場合、第2ビデオ・ブロックを、変換には利用不能として取り扱うことを更に規定している、条項B1に記載の方法。
B3. 1つ以上のポジションは、共有されるマージ領域の左上ポジションに対応し、ルールは、第1ビデオ・ブロックのコーディング・モードを、第2ビデオ・ブロックのコーディング・モードと比較しないことを更に規定している、条項B1に記載の方法。
B4. ルールは、1つ以上のポジションをカバーするビデオ領域が、第1ビデオ・ブロックと同じスライス及び/又はタイル及び/又はブリック及び/又はサブピクチャ内にあるかどうかを検査することを更に規定している、条項B3に記載の方法。
C1. ビジュアル・メディア処理方法であって、
ビジュアル・メディア・データの現在のビデオ・ブロックとビジュアル・メディア・データのビットストリーム表現との間の変換に関し、現在のビデオ・ブロックのイントラ・ブロック・コピー動きリストを構築するために使用される2つのポジションを判定するステップと、
イントラ・ブロック・コピー動きリストに基づいて変換を実行するステップと
を含む方法。
C2. 2つのポジションは、現在のビデオ・ブロックの共有されるマージ領域の左上ポジションに対応する第1ポジションを含む、条項C1に記載の方法。
C3. 第1ポジションは、現在のビデオ・ブロックの隣接するビデオ・ブロックの利用可能性を判定るために使用される、条項C2に記載の方法。
C4. 2つのポジションは、現在のビデオ・ブロックの左上ポジションに対応する第2ポジションを含む、条項C1に記載の方法。
C5. 第2ポジションは、現在のビデオ・ブロックの隣接するビデオ・ブロックの利用可能性を判定するために使用される、条項C4に記載の方法。
D1. ビジュアル・メディア処理方法であって、
ビジュアル・メディア・データの現在のビデオ・ブロックとビジュアル・メディア・データのコーディングされた表現との間の変換に関し、ルールに基づいて現在のビデオ・ブロックの組み合わせイントラ・インター予測に対する1つ以上のウェイトを導出するために隣接するブロックの利用可能性を判定するステップと、
判定に基づいて変換を実行するステップとを含み、
1つ以上のウェイトは、現在のビデオ・ブロックのインター予測のために指定される第1ウェイトと、現在のビデオ・ブロックのイントラ予測のために指定される第2ウェイトとを含み、
ルールは、現在のビデオ・ブロックと隣接するブロックのコーディング・モードの比較を利用することを除外している、方法。
D2. 隣接するブロックのコーディング・モードが、イントラ・モード、イントラ・ブロック・コピー(IBC)モード、又はパレット・モードである場合に、隣接するブロックは利用可能であると判定される、条項D1に記載の方法。
D3. 第1ウェイトは第2ウェイトと異なる、D1又はD2に記載の方法。
E1. 変換は、ビットストリーム表現を現在のビデオ・ブロックから生成することを含む、条項A1-D3のうちの何れか1項に記載の方法。
E2. 変換は、現在のビデオ・ブロックのサンプルを、ビットストリーム表現から生成することを含む、請求項A1-D3のうちの何れか1項に記載の方法。
E3. 条項A1-D3のうちの任意の1つ以上に記載の方法を実行するように構成されたプロセッサを含むビデオ処理装置。
E4. 条項A1-D3のうちの任意の1つ以上に記載の方法を実行するように構成されたプロセッサを含むビデオ符号化装置。
E5. 条項A1-D3のうちの任意の1つ以上に記載の方法を実行するように構成されたプロセッサを含むビデオ復号化装置。
D6. コードを記憶したコンピュータ読み取り可能な媒体であって、コードは、実行されると、条項A1-D3のうちの任意の1つ以上に記載の方法をプロセッサに実行させる、記憶媒体。
E7. 本件で説明される方法、システム又は装置。
本明細書において、「ビデオ処理」又は「ビデオ・メディア処理」という用語は、ビデオ符号化、ビデオ復号化、ビデオ圧縮又はビデオ解凍を指す可能性がある。例えば、ビデオ圧縮アルゴリズムは、ビデオのピクセル表現から、対応するビットストリーム表現へ、又はその逆への変換の間に適用される可能性がある。現在のビデオ・ブロックのビットストリーム表現は、例えばシンタックスによって定義されるように、ビットストリーム内で同じ場所にあるか又は異なる場所に拡散されるビットに対応してもよい。例えば、マクロブロックは、変換されたコーディングされたエラー残差値の観点から、また、ビットストリーム内のヘッダ及び他のフィールドのビットを使用して符号化されてもよい。更に、変換中に、デコーダは、上記の解決策で説明されているように、決定に基づいて、何らかのフィールドが存在する可能性がある又は不存在の可能性があるという知識とともに、ビットストリームを解析することができる。同様に、エンコーダは、特定のシンタックス・フィールドが含まれているか、又は含まれていないかを決定し、それに応じて、コーディングされた表現をシンタックス・フィールドに含めるか又はそこから除外することによって、コーディングされた表現を生成することができる。
本明細書で説明される開示された及びその他の解決策、実施例、実施形態、モジュール、及び機能的動作は、本明細書で開示される構造及びそれらの構造的均等物を含む、デジタル電子回路、又はコンピュータ・ソフトウェア、ファームウェア、又はハードウェア、又はそれらの1つ以上の組み合わせにおいて実現することが可能である。開示された及びその他の実施形態は、1つ以上のコンピュータ・プログラム製品、即ち、データ処理装置による実行のため又はその動作を制御するために、コンピュータ読み取り可能な媒体上にエンコードされたコンピュータ・プログラム命令のうちの1つ以上のモジュールとして実装することができる。コンピュータ読み取り可能な媒体は、機械読み取り可能なストレージ・デバイス、機械読み取り可能なストレージ基板、メモリ・デバイス、機械読み取り可能な伝送される信号に影響を及ぼす物質の組成、又は1つ以上のそれらの組み合わせとすることが可能である。用語「データ処理装置」は、例えばプログラマブル・プロセッサ、コンピュータ、又は複数のプロセッサ又はコンピュータを含む、データを処理するための全ての装置、デバイス、及び機械を包含する。装置は、ハードウェアに加えて、対象のコンピュータ・プログラムの実行環境を生成するコード、例えばプロセッサ・ファームウェア、プロトコル・スタック、データベース管理システム、オペレーティング・システム、又はそれらの1つ以上の組み合わせを構成するコードを含むことが可能である。伝送される信号は、人工的に生成された信号、例えば、適切な受信装置へ送信するための情報を符号化するために生成される機械により生成される電気的、光学的、又は電磁的な信号である。
コンピュータ・プログラム(プログラム、ソフトウェア、ソフトウェア・アプリケーション、スクリプト、コードとしても知られているもの)は、コンパイル又は解釈された言語を含む、任意の形式のプログラミング言語で書くことが可能であり、それは、スタンド・アロン・プログラムとして、又はモジュール、コンポーネント、サブルーチン、又はコンピューティング環境での使用に適したその他のユニットとして、任意の形式で配備することが可能である。コンピュータ・プログラムは、必ずしもファイル・システム内のファイルに対応するとは限らない。プログラムは、他のプログラム又はデータを保持するファイルの一部分(例えば、マークアップ言語文書に保存される1つ以上のスクリプト)内に、問題としているプログラムに専用の単一ファイル内に、又は複数の調整されたファイル(例えば、1つ以上のモジュール、サブ・プログラム、又はコードの一部分を記憶するファイル)内に、保存されることが可能である。コンピュータ・プログラムは、1つのコンピュータ上で又は複数のコンピュータ上で実行されるように配備することが可能であり、複数のコンピュータは、1つのサイトに配置されるか、又は複数のサイトにわたって分散されて通信ネットワークによって相互接続される。
本明細書で説明されるプロセス及びロジックの流れは、1つ以上のコンピュータ・プログラムを実行する1つ以上のプログラマブル・プロセッサによって実行され、入力データに作用して出力を生成することによって機能を実行することができる。プロセス及びロジックのフローはまた、例えばFPGA(フィールド・プログラマブル・ゲート・アレイ)又はASIC(特定用途向け集積回路)のような特殊目的論理回路によって実行されることが可能であり、また、それらとして装置を実装することも可能である。
コンピュータ・プログラムの実行に適したプロセッサは、例えば、汎用及び専用双方のためのマイクロプロセッサ、及び任意の種類のデジタル・コンピュータの任意の1つ以上のプロセッサを含む。一般に、プロセッサは、リード・オンリ・メモリ又はランダム・アクセス・メモリ又は双方から命令及びデータを受信するであろう。コンピュータの本質的な要素は、命令を実行するためのプロセッサと、命令及びデータを記憶するための1つ以上のメモリ・デバイスである。一般に、コンピュータはまた、データを記憶するための1つ以上の大容量ストレージ・デバイス、例えば磁気的なもの、磁気光ディスク、又は光ディスクを含み、あるいはそれらからデータを受信したり、それらへデータを転送したり、或いは双方のために動作可能に結合される。しかしながら、コンピュータは、そのようなデバイスを有することを必須とはしない。コンピュータ・プログラム命令及びデータを記憶するのに適したコンピュータ読み取り可能な媒体は、例えば、EPROM、EEPROM、及びフラッシュ・メモリ・デバイスのような半導体メモリ・デバイス;例えば内部ハード・ディスク又は取り外し可能なディスクのような磁気ディスク;磁気光ディスク;CD ROM及びDVD-ROMディスクを含む、あらゆる形態の不揮発性メモリ、媒体及びメモリ・デバイスを含む。プロセッサ及びメモリは、特殊目的の論理回路によって補足されるか、又はそこに内蔵されることが可能である。
本明細書は多くの詳細を含んでいるが、これらは、何れかの対象事項やクレームされ得るものの範囲に関する限定として解釈されるべきではなく、むしろ特定の技術の特定の実施形態に特有である可能性のある特徴の説明として解釈されるべきである。別々の実施形態の文脈で本明細書で説明されている特定の複数の特徴は、組み合わせて単一の実施形態で実施することも可能である。逆に、単一の実施形態の文脈で説明されている種々の特徴は、複数の実施形態において別々に、又は任意の適切なサブコンビネーションで実施することも可能である。更に、特徴が、特定の組み合わせにおいて作用するものとして上述されていたり、当初にはそのようにクレームされていたりさえするかもしれないが、クレームされた組み合わせ中の1つ以上の特徴は、場合によっては、組み合わせから切り出されることが可能であり、クレームされた組み合わせは、サブコンビネーション又はサブコンビネーションの変形例に仕向けられる可能性がある。
同様に、図中、動作は特定の順序で示されているが、これは、所望の結果を達成するために、このような動作が図示の特定の順序で又は順番通りに実行されること、又は、例示された全ての動作が実行されること、を要求するものとして理解されるべきではない。更に、この特許文献で説明される実施形態における種々のシステム構成要素の分け方は、全ての実施形態でこのような分け方を要求とするものとして理解されるべきではない。
僅かな実装例及び実施例のみが説明されているに過ぎず、本特許文献で説明され図示されているものに基づいて他の実装、拡張及び変更を行うことが可能である。

Claims (14)

  1. ビデオ・データを処理する方法であって、
    ビデオの第1ブロックと前記ビデオのビットストリームとの間の変換に関し、ルールに基づいて利用可能性検査プロセスにより前記第1ブロックを予測するために1つ以上のウェイトを導出するための隣接するブロックの利用可能性についての第1判定を行うステップであって、前記第1ブロックは第1予測モードでコーディングされ、前記第1予測モードにおいて、前記第1ブロックの予測はインター予測とイントラ予測に少なくとも基づいて生成される、ステップと、
    前記第1判定に基づいて前記変換を実行するステップと
    を含み、前記1つ以上のウェイトは、前記第1ブロックのインター予測のために指定される第1ウェイトと、前記第1ブロックのイントラ予測のために指定される第2ウェイトとを含み、
    前記ルールは、前記第1ブロックのコーディング・モードと前記隣接するブロックのコーディング・モードとの比較を利用することを除外している、方法。
  2. 前記隣接するブロックは、前記隣接するブロックの前記コーディング・モードが、イントラ・モード、イントラ・ブロック・コピー・モード、又はパレット・モードである場合でさえ、利用可能であるとして判定されるように許容されており、
    前記イントラ・ブロック・コピー・モードにおいて、予測サンプルは、ブロック・ベクトルにより判定されたものと同じ復号化されたビデオ領域のサンプル値のブロックから導出される、請求項1に記載の方法。
  3. 前記隣接するブロックが利用可能である場合に、前記1つ以上のウェイトは前記隣接するブロックの前記コーディング・モードに依存して指定される、請求項1又は2に記載の方法。
  4. 前記ビデオの第2ブロックと前記ビデオのビットストリームとの間の変換に関し、前記利用可能性検査プロセスにより前記第2ブロックのコーディング・モードと第3ブロックのコーディング・モードとに基づいて前記ビデオの前記第3ブロックの利用可能性についての第2判定を行うステップであって、前記第3ブロックは、前記第2ブロックの前記コーディング・モードが前記第3ブロックの前記コーディング・モードと異なることに応じて、利用不能であるとして判定される、ステップと、
    前記第2判定に基づいて、前記第2ブロックと前記ビットストリームとの間の前記変換を実行するステップと
    を更に含む、請求項1-3のうちの何れか1項に記載の方法。
  5. 前記第2ブロックの前記コーディング・モードはインター予測モードに対応し、前記第3ブロックの前記コーディング・モードはイントラ・ブロック・コピー・モードに対応し、前記イントラ・ブロック・コピー・モードにおいて、予測サンプルは、ブロック・ベクトルにより判定されたものと同じ復号化されたビデオ領域のサンプル値のブロックから導出される、請求項4に記載の方法。
  6. 前記第2ブロックの前記コーディング・モードはイントラ・ブロック・コピー・モードに対応し、前記第3ブロックの前記コーディング・モードはインター予測モードに対応し、前記イントラ・ブロック・コピー・モードにおいて、予測サンプルは、ブロック・ベクトルにより判定されたものと同じ復号化されたビデオ領域のサンプル値のブロックから導出される、請求項4に記載の方法。
  7. 前記第3ブロックの動き情報は、前記第3ブロックが利用不能であるとして判定されたことに応じて、前記第2ブロックのリスト構築で使用されることを禁止される、請求項4-6のうちの何れか1項に記載の方法。
  8. 前記コーディング・モードに依存する利用可能性が、前記利用可能性検査プロセスの入力パラメータとして使用される、請求項1-7のうちの何れか1項に記載の方法。
  9. 前記第2ブロックの前記コーディング・モードは、前記利用可能性検査プロセスの入力パラメータとして使用される、請求項4-6のうちの何れか1項に記載の方法。
  10. 前記変換は、前記第1ブロックを前記ビットストリームに符号化することを含む、請求項1-9のうちの何れか1項に記載の方法。
  11. 前記変換は、前記第1ブロックを前記ビットストリームから復号化することを含む、請求項1-9のうちの何れか1項に記載の方法。
  12. 命令を有する非一時的なメモリとプロセッサとを含む、ビデオ・データを処理する装置であって、前記命令は、前記プロセッサにより実行されると、前記プロセッサに:
    ビデオの第1ブロックと前記ビデオのビットストリームとの間の変換に関し、ルールに基づいて利用可能性検査プロセスにより前記第1ブロックを予測するために1つ以上のウェイトを導出するための隣接するブロックの利用可能性についての第1判定を行うステップであって、前記第1ブロックは第1予測モードでコーディングされ、前記第1予測モードにおいて、前記第1ブロックの予測はインター予測とイントラ予測に少なくとも基づいて生成される、ステップと、
    前記第1判定に基づいて前記変換を実行するステップとを行わせ、
    前記1つ以上のウェイトは、前記第1ブロックのインター予測のために指定される第1ウェイトと、前記第1ブロックのイントラ予測のために指定される第2ウェイトとを含み、
    前記ルールは、前記第1ブロックのコーディング・モードと前記隣接するブロックのコーディング・モードとの比較を利用することを除外している、装置。
  13. 命令を記憶する非一時的なコンピュータ読み取り可能な記憶媒体であって、前記命令は、プロセッサに:
    ビデオの第1ブロックと前記ビデオのビットストリームとの間の変換に関し、ルールに基づいて利用可能性検査プロセスにより前記第1ブロックを予測するために1つ以上のウェイトを導出するための隣接するブロックの利用可能性についての第1判定を行うステップであって、前記第1ブロックは第1予測モードでコーディングされ、前記第1予測モードにおいて、前記第1ブロックの予測はインター予測とイントラ予測に少なくとも基づいて生成される、ステップと、
    前記第1判定に基づいて前記変換を実行するステップとを行わせ、
    前記1つ以上のウェイトは、前記第1ブロックのインター予測のために指定される第1ウェイトと、前記第1ブロックのイントラ予測のために指定される第2ウェイトとを含み、
    前記ルールは、前記第1ブロックのコーディング・モードと前記隣接するブロックのコーディング・モードとの比較を利用することを除外している、記憶媒体。
  14. デオのビットストリームを記憶する方であって
    ルールに基づいて利用可能性検査プロセスによりビデオの第1ブロックを予測するために1つ以上のウェイトを導出するための隣接するブロックの利用可能性についての第1判定を行うステップであって、前記第1ブロックは第1予測モードでコーディングされ、前記第1予測モードにおいて、前記第1ブロックの予測はインター予測とイントラ予測に少なくとも基づいて生成される、ステップと、
    前記第1判定に基づいて前記ビデオの前記ビットストリームを生成するステップと
    前記ビットストリームを、非一時的なコンピュータ読み取り可能な記憶媒体に記憶するステップと
    を含み、前記1つ以上のウェイトは、前記第1ブロックのインター予測のために指定される第1ウェイトと、前記第1ブロックのイントラ予測のために指定される第2ウェイトとを含み、
    前記ルールは、前記第1ブロックのコーディング・モードと前記隣接するブロックのコーディング・モードとの比較を利用することを除外している、方法
JP2021571828A 2019-06-04 2020-06-04 ビデオ・データ処理方法、装置、記憶媒体及び記憶方法 Active JP7346599B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023144057A JP2023166518A (ja) 2019-06-04 2023-09-06 隣接ブロック情報を用いる動き候補リスト構築

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
CNPCT/CN2019/089970 2019-06-04
CN2019089970 2019-06-04
CNPCT/CN2019/104810 2019-09-07
CN2019104810 2019-09-07
PCT/CN2020/094310 WO2020244571A1 (en) 2019-06-04 2020-06-04 Motion candidate list construction using neighboring block information

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023144057A Division JP2023166518A (ja) 2019-06-04 2023-09-06 隣接ブロック情報を用いる動き候補リスト構築

Publications (2)

Publication Number Publication Date
JP2022535544A JP2022535544A (ja) 2022-08-09
JP7346599B2 true JP7346599B2 (ja) 2023-09-19

Family

ID=73652447

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021571828A Active JP7346599B2 (ja) 2019-06-04 2020-06-04 ビデオ・データ処理方法、装置、記憶媒体及び記憶方法
JP2023144057A Pending JP2023166518A (ja) 2019-06-04 2023-09-06 隣接ブロック情報を用いる動き候補リスト構築

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023144057A Pending JP2023166518A (ja) 2019-06-04 2023-09-06 隣接ブロック情報を用いる動き候補リスト構築

Country Status (7)

Country Link
US (2) US11575911B2 (ja)
EP (1) EP3963890A4 (ja)
JP (2) JP7346599B2 (ja)
KR (1) KR102627821B1 (ja)
CN (2) CN117395397A (ja)
BR (1) BR112021023918A2 (ja)
WO (1) WO2020244571A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114097228B (zh) 2019-06-04 2023-12-15 北京字节跳动网络技术有限公司 具有几何分割模式编解码的运动候选列表
KR20220030995A (ko) 2019-07-14 2022-03-11 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 비디오 코딩에서 변환 블록 크기 제한
WO2021057996A1 (en) 2019-09-28 2021-04-01 Beijing Bytedance Network Technology Co., Ltd. Geometric partitioning mode in video coding
WO2023284819A1 (en) * 2021-07-14 2023-01-19 Beijing Bytedance Network Technology Co., Ltd. Method, apparatus, and medium for video processing

Family Cites Families (149)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050111545A1 (en) 2003-11-25 2005-05-26 Ram Prabhakar Dynamic packet size control for MPEG-4 data partition mode
CN101415121B (zh) 2007-10-15 2010-09-29 华为技术有限公司 一种自适应的帧预测的方法及装置
TWI428023B (zh) 2008-11-18 2014-02-21 Ind Tech Res Inst 解碼方法及裝置
KR101098739B1 (ko) 2008-11-24 2011-12-23 한국전자통신연구원 비디오 신호의 부호화/복호화 장치 및 방법
US9036692B2 (en) 2010-01-18 2015-05-19 Mediatek Inc. Motion prediction method
US9819966B2 (en) 2010-09-01 2017-11-14 Qualcomm Incorporated Filter description signaling for multi-filter adaptive filtering
US9826238B2 (en) 2011-06-30 2017-11-21 Qualcomm Incorporated Signaling syntax elements for transform coefficients for sub-sets of a leaf-level coding unit
WO2013052520A1 (en) * 2011-10-03 2013-04-11 Denton Vacuum, L.L.C. Semiconductor wafer treatment system
US20130107973A1 (en) 2011-10-28 2013-05-02 Qualcomm Incorporated Loop filtering control over tile boundaries
US20130114717A1 (en) 2011-11-07 2013-05-09 Qualcomm Incorporated Generating additional merge candidates
US9451277B2 (en) 2012-02-08 2016-09-20 Qualcomm Incorporated Restriction of prediction units in B slices to uni-directional inter prediction
US9549180B2 (en) 2012-04-20 2017-01-17 Qualcomm Incorporated Disparity vector generation for inter-view prediction for video coding
SG11201405038RA (en) * 2012-04-24 2014-09-26 Mediatek Inc Method and apparatus of motion vector derivation for 3d video coding
US20130294513A1 (en) 2012-05-07 2013-11-07 Qualcomm Incorporated Inter layer merge list construction for video coding
US20130329007A1 (en) 2012-06-06 2013-12-12 Qualcomm Incorporated Redundancy removal for advanced motion vector prediction (amvp) in three-dimensional (3d) video coding
US20130336406A1 (en) 2012-06-14 2013-12-19 Qualcomm Incorporated Redundancy removal for merge/skip mode motion information candidate list construction
US9749645B2 (en) 2012-06-22 2017-08-29 Microsoft Technology Licensing, Llc Coded-block-flag coding and derivation
US9088770B2 (en) 2012-08-15 2015-07-21 Intel Corporation Size based transform unit context derivation
US20140071235A1 (en) 2012-09-13 2014-03-13 Qualcomm Incorporated Inter-view motion prediction for 3d video
US9491461B2 (en) 2012-09-27 2016-11-08 Qualcomm Incorporated Scalable extensions to HEVC and temporal motion vector prediction
US20140092978A1 (en) * 2012-10-01 2014-04-03 Nokia Corporation Method and apparatus for video coding
US9699450B2 (en) 2012-10-04 2017-07-04 Qualcomm Incorporated Inter-view predicted motion vector for 3D video
CN104718760B (zh) 2012-10-05 2019-04-05 寰发股份有限公司 用于三维和多视图视频编码的方法和装置
US9948939B2 (en) 2012-12-07 2018-04-17 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
US9357214B2 (en) 2012-12-07 2016-05-31 Qualcomm Incorporated Advanced merge/skip mode and advanced motion vector prediction (AMVP) mode for 3D video
US9538180B2 (en) 2012-12-17 2017-01-03 Qualcomm Incorporated Motion vector prediction in video coding
KR101804652B1 (ko) 2013-04-02 2017-12-04 브이아이디 스케일, 인크. 스케일러블 비디오 코딩용의 향상된 시간적 움직임 벡터 예측
US9609347B2 (en) 2013-04-04 2017-03-28 Qualcomm Incorporated Advanced merge mode for three-dimensional (3D) video coding
US9288507B2 (en) 2013-06-21 2016-03-15 Qualcomm Incorporated More accurate advanced residual prediction (ARP) for texture coding
US9800895B2 (en) 2013-06-27 2017-10-24 Qualcomm Incorporated Depth oriented inter-view motion vector prediction
WO2015003383A1 (en) 2013-07-12 2015-01-15 Mediatek Singapore Pte. Ltd. Methods for inter-view motion prediction
US10045014B2 (en) 2013-07-15 2018-08-07 Mediatek Singapore Pte. Ltd. Method of disparity derived depth coding in 3D video coding
SG11201600128WA (en) 2013-07-24 2016-02-26 Microsoft Technology Licensing Llc Scanning orders for non-transform coding
US9762927B2 (en) 2013-09-26 2017-09-12 Qualcomm Incorporated Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC
WO2015070739A1 (en) * 2013-11-15 2015-05-21 Mediatek Inc. Method of block-based adaptive loop filtering
US9432685B2 (en) 2013-12-06 2016-08-30 Qualcomm Incorporated Scalable implementation for parallel motion estimation regions
US20150271515A1 (en) * 2014-01-10 2015-09-24 Qualcomm Incorporated Block vector coding for intra block copy in video coding
EP3114839A4 (en) 2014-03-07 2018-02-14 Qualcomm Incorporated Simplified sub-prediction unit (sub-pu) motion parameter inheritence (mpi)
CN106105216A (zh) 2014-03-13 2016-11-09 高通股份有限公司 用于3d视频译码的受约束深度帧内模式译码
CN103942793B (zh) 2014-04-16 2016-11-16 上海交通大学 基于热扩散的视频一致运动区域检测方法
WO2015192286A1 (en) 2014-06-16 2015-12-23 Qualcomm Incorporated Simplified shifting merge candidate and merge list derivation in 3d-hevc
EP3158754B1 (en) 2014-06-19 2021-10-20 VID SCALE, Inc. Methods and systems for intra block copy search enhancement
US10027981B2 (en) * 2014-09-01 2018-07-17 Hfi Innovation Inc. Method of intra picture block copy for screen content and video coding
EP3192261A1 (en) 2014-09-12 2017-07-19 VID SCALE, Inc. Inter-component de-correlation for video coding
WO2016048834A1 (en) 2014-09-26 2016-03-31 Vid Scale, Inc. Intra block copy coding with temporal block vector prediction
GB2531003A (en) * 2014-10-06 2016-04-13 Canon Kk Method and apparatus for vector encoding in video coding and decoding
US9854237B2 (en) * 2014-10-14 2017-12-26 Qualcomm Incorporated AMVP and merge candidate list derivation for intra BC and inter prediction unification
US11477477B2 (en) 2015-01-26 2022-10-18 Qualcomm Incorporated Sub-prediction unit based advanced temporal motion vector prediction
EP3251353A1 (en) 2015-01-29 2017-12-06 VID SCALE, Inc. Palette coding modes and palette flipping
US10057574B2 (en) 2015-02-11 2018-08-21 Qualcomm Incorporated Coding tree unit (CTU) level adaptive loop filter (ALF)
US10356416B2 (en) * 2015-06-09 2019-07-16 Qualcomm Incorporated Systems and methods of determining illumination compensation status for video coding
CN105141957B (zh) 2015-07-31 2019-03-15 广东中星电子有限公司 图像和视频数据编解码的方法和设备
WO2017036414A1 (en) 2015-09-02 2017-03-09 Mediatek Inc. Method and apparatus of decoder side motion derivation for video coding
KR20170031643A (ko) * 2015-09-11 2017-03-21 주식회사 케이티 비디오 신호 처리 방법 및 장치
US10218975B2 (en) 2015-09-29 2019-02-26 Qualcomm Incorporated Transform precision manipulation in video coding
US10187655B2 (en) * 2015-09-30 2019-01-22 Apple Inc. Memory-to-memory low resolution motion estimation systems and methods
US10812822B2 (en) * 2015-10-02 2020-10-20 Qualcomm Incorporated Intra block copy merge mode and padding of unavailable IBC reference region
WO2017059415A1 (en) 2015-10-02 2017-04-06 Vid Scale, Inc. Color correction with a lookup table
US10200719B2 (en) 2015-11-25 2019-02-05 Qualcomm Incorporated Modification of transform coefficients for non-square transform units in video coding
US11064195B2 (en) 2016-02-15 2021-07-13 Qualcomm Incorporated Merging filters for multiple classes of blocks for video coding
US11032550B2 (en) * 2016-02-25 2021-06-08 Mediatek Inc. Method and apparatus of video coding
KR20190015216A (ko) 2016-05-05 2019-02-13 브이아이디 스케일, 인크. 인트라 코딩을 위한 제어 포인트 기반의 인트라 방향 표현
CN115118971A (zh) * 2016-05-13 2022-09-27 Vid拓展公司 用于视频编码的通用式多假设预测的系统及方法
US10560718B2 (en) 2016-05-13 2020-02-11 Qualcomm Incorporated Merge candidates for motion vector prediction for video coding
US10419755B2 (en) 2016-05-16 2019-09-17 Qualcomm Incorporated Confusion of multiple filters in adaptive loop filtering in video coding
CN109792515B (zh) * 2016-08-01 2023-10-24 韩国电子通信研究院 图像编码/解码方法和装置以及存储比特流的记录介质
US11095922B2 (en) 2016-08-02 2021-08-17 Qualcomm Incorporated Geometry transformation-based adaptive loop filtering
US10326986B2 (en) 2016-08-15 2019-06-18 Qualcomm Incorporated Intra video coding using a decoupled tree structure
US10271069B2 (en) 2016-08-31 2019-04-23 Microsoft Technology Licensing, Llc Selective use of start code emulation prevention
US10721489B2 (en) 2016-09-06 2020-07-21 Qualcomm Incorporated Geometry-based priority for the construction of candidate lists
US10448010B2 (en) 2016-10-05 2019-10-15 Qualcomm Incorporated Motion vector prediction for affine motion models in video coding
US20210136400A1 (en) 2016-11-29 2021-05-06 Mediatek Inc. Method and apparatus of merge mode derivation for video coding
US20180184127A1 (en) 2016-12-22 2018-06-28 Qualcomm Incorporated Determining neighboring samples for bilateral filtering in video coding
CN117336475A (zh) * 2017-01-02 2024-01-02 Lx 半导体科技有限公司 图像编码/解码方法、图像数据的发送方法以及存储介质
US10506230B2 (en) 2017-01-04 2019-12-10 Qualcomm Incorporated Modified adaptive loop filter temporal prediction for temporal scalability support
US11025903B2 (en) 2017-01-13 2021-06-01 Qualcomm Incorporated Coding video data using derived chroma mode
CN106961606B (zh) 2017-01-26 2020-04-07 浙江工业大学 基于纹理划分特征的hevc帧内编码模式选择方法
KR102559063B1 (ko) 2017-02-24 2023-07-24 주식회사 케이티 비디오 신호 처리 방법 및 장치
US11184636B2 (en) * 2017-06-28 2021-11-23 Sharp Kabushiki Kaisha Video encoding device and video decoding device
US10778974B2 (en) 2017-07-05 2020-09-15 Qualcomm Incorporated Adaptive loop filter with enhanced classification methods
US11172203B2 (en) 2017-08-08 2021-11-09 Mediatek Inc. Intra merge prediction
WO2019045427A1 (ko) 2017-08-29 2019-03-07 에스케이텔레콤 주식회사 양방향 옵티컬 플로우를 이용한 움직임 보상 방법 및 장치
KR102427789B1 (ko) 2017-10-10 2022-08-02 한국전자통신연구원 인터 예측 정보를 사용하는 방법 및 장치
US10785494B2 (en) 2017-10-11 2020-09-22 Qualcomm Incorporated Low-complexity design for FRUC
WO2019077197A1 (en) * 2017-10-16 2019-04-25 Nokia Technologies Oy METHOD, APPARATUS AND COMPUTER PROGRAM PRODUCT FOR VIDEO ENCODING AND DECODING
WO2019078581A1 (ko) 2017-10-16 2019-04-25 디지털인사이트주식회사 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
US20190116374A1 (en) 2017-10-17 2019-04-18 Qualcomm Incorporated Coding motion information of video data using coding structure-based candidate list construction
WO2019079611A1 (en) 2017-10-18 2019-04-25 Huawei Technologies Co., Ltd. GENERATION OF MOVEMENT VECTOR CANDIDATES LIST DEPENDING ON THE AVAILABILITY OF A NEIGHBORING BLOCK
JP2021016016A (ja) 2017-10-20 2021-02-12 シャープ株式会社 動画像符号化装置及び動画像復号装置
EP3704858A1 (en) 2017-11-01 2020-09-09 Vid Scale, Inc. Methods for simplifying adaptive loop filter in video coding
WO2019099444A1 (en) 2017-11-14 2019-05-23 Qualcomm Incorporated Unified merge candidate list usage
US10721469B2 (en) 2017-11-28 2020-07-21 Qualcomm Incorporated Line buffer reduction for adaptive loop filtering in video coding
EP3738310A4 (en) 2018-01-11 2021-08-11 Qualcomm Incorporated VIDEO ENCODING USING LOCAL LIGHTING COMPENSATION
US20190238845A1 (en) 2018-01-26 2019-08-01 Qualcomm Incorporated Adaptive loop filtering on deblocking filter results in video coding
US11233996B2 (en) 2018-02-22 2022-01-25 Lg Electronics Inc. Image decoding method and apparatus according to block division structure in image coding system
EP3780608A4 (en) 2018-04-02 2021-12-01 SZ DJI Technology Co., Ltd. IMAGE PROCESSING PROCESS AND IMAGE PROCESSING DEVICE
US20190306502A1 (en) 2018-04-02 2019-10-03 Qualcomm Incorporated System and method for improved adaptive loop filtering
US10397603B1 (en) 2018-05-08 2019-08-27 Tencent America LLC Method and apparatus for video coding
US10506251B2 (en) 2018-05-08 2019-12-10 Tencent America LLC Method and apparatus for video coding
EP3791586A1 (en) 2018-06-29 2021-03-17 Beijing Bytedance Network Technology Co. Ltd. Concept of using one or multiple look up tables to store motion information of previously coded in order and use them to code following blocks
SG11202011714RA (en) 2018-06-29 2020-12-30 Beijing Bytedance Network Technology Co Ltd Partial/full pruning when adding a hmvp candidate to merge/amvp
TWI750486B (zh) 2018-06-29 2021-12-21 大陸商北京字節跳動網絡技術有限公司 運動資訊共用的限制
WO2020008330A1 (en) 2018-07-01 2020-01-09 Beijing Bytedance Network Technology Co., Ltd. Priority-based non-adjacent merge design
US10531090B1 (en) 2018-07-02 2020-01-07 Tencent America LLC Method and apparatus for video coding
TWI731364B (zh) 2018-07-02 2021-06-21 大陸商北京字節跳動網絡技術有限公司 Hmvp+非相鄰運動
US10523963B1 (en) 2018-07-30 2019-12-31 Tencent America LLC Method and apparatus for merge mode in video coding
US10362330B1 (en) 2018-07-30 2019-07-23 Tencent America LLC Combining history-based motion vector prediction and non-adjacent merge prediction
WO2020044197A1 (en) 2018-08-26 2020-03-05 Beijing Bytedance Network Technology Co., Ltd. Pruning in multi-motion model based skip and direct mode coded video blocks
CN111064959B (zh) 2018-09-12 2023-09-01 北京字节跳动网络技术有限公司 要检查多少个hmvp候选
CN112740685A (zh) * 2018-09-19 2021-04-30 韩国电子通信研究院 图像编码/解码方法和装置以及存储有比特流的记录介质
CN110944204B (zh) 2018-09-23 2023-06-09 北京字节跳动网络技术有限公司 简化的空时运动矢量预测
TWI822863B (zh) 2018-09-27 2023-11-21 美商Vid衡器股份有限公司 360度視訊寫碼樣本導出
WO2020084554A1 (en) 2018-10-24 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Searching based motion candidate derivation for sub-block motion vector prediction
CN111147850B (zh) 2018-11-02 2022-10-11 北京字节跳动网络技术有限公司 用于基于历史的运动矢量预测的表维护
CN112219400B (zh) 2018-11-06 2024-03-26 北京字节跳动网络技术有限公司 依赖位置的对运动信息的存储
CN112997489B (zh) 2018-11-06 2024-02-06 北京字节跳动网络技术有限公司 具有几何分割的帧间预测的边信息信令
CN112970262B (zh) 2018-11-10 2024-02-20 北京字节跳动网络技术有限公司 三角预测模式中的取整
EP3861744A4 (en) 2018-11-13 2021-12-08 Beijing Bytedance Network Technology Co. Ltd. CREATION OF LIST OF MOVEMENT CANDIDATES BASED ON A HISTORY, FOR AN IN-BLOCK COPY
WO2020098713A1 (en) 2018-11-13 2020-05-22 Beijing Bytedance Network Technology Co., Ltd. Motion candidate list construction for prediction
CN113039796B (zh) 2018-11-17 2023-09-19 北京字节跳动网络技术有限公司 视频处理中的广义双向预测模式
CN113170184A (zh) 2018-11-22 2021-07-23 北京字节跳动网络技术有限公司 默认运动候选的配置方法
WO2020108574A1 (en) 2018-11-28 2020-06-04 Beijing Bytedance Network Technology Co., Ltd. Improving method for transform or quantization bypass mode
WO2020114407A1 (en) 2018-12-03 2020-06-11 Beijing Bytedance Network Technology Co., Ltd. Partial pruning method for hmvp mode
WO2020135465A1 (en) 2018-12-28 2020-07-02 Beijing Bytedance Network Technology Co., Ltd. Modified history based motion prediction
CN111213381B (zh) 2018-12-29 2021-11-12 深圳市大疆创新科技有限公司 视频处理方法和设备
WO2020140242A1 (zh) 2019-01-03 2020-07-09 北京大学 视频处理方法和装置
CN113273186A (zh) 2019-01-10 2021-08-17 北京字节跳动网络技术有限公司 Lut更新的调用
WO2020143824A1 (en) 2019-01-13 2020-07-16 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and shared merge list
WO2020147804A1 (en) 2019-01-17 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Use of virtual candidate prediction and weighted prediction in video processing
US10904557B2 (en) 2019-01-22 2021-01-26 Tencent America LLC Method and apparatus for video coding
CN113647109A (zh) 2019-02-17 2021-11-12 北京字节跳动网络技术有限公司 帧内块复制(ibc)模式和非ibc帧间模式的运动候选列表构建
MX2021010337A (es) 2019-02-27 2021-09-28 Huawei Tech Co Ltd Un codificador, un decodificador y metodos correspondientes.
WO2020175893A1 (ko) 2019-02-28 2020-09-03 엘지전자 주식회사 Aps 시그널링 기반 비디오 또는 영상 코딩
EP4358036A2 (en) 2019-03-11 2024-04-24 Huawei Technologies Co., Ltd. Interpolation filter clipping for sub-picture motion vectors
KR20210134038A (ko) 2019-03-13 2021-11-08 에스지 디제이아이 테크놀러지 코., 엘티디 비디오 처리 방법 및 기기
CN117499644A (zh) 2019-03-14 2024-02-02 北京字节跳动网络技术有限公司 环路整形信息的信令和语法
AU2020248837B2 (en) 2019-03-24 2023-06-08 Beijing Bytedance Network Technology Co., Ltd. Nonlinear adaptive loop filtering in video processing
CN113678462B (zh) 2019-04-15 2023-01-10 北京字节跳动网络技术有限公司 自适应环路滤波器中的裁剪参数推导
CN113767623B (zh) 2019-04-16 2024-04-02 北京字节跳动网络技术有限公司 用于视频编解码的自适应环路滤波
US11284114B2 (en) 2019-04-23 2022-03-22 Qualcomm Incorporated Adaptive loop filter set index signaling
KR20210135337A (ko) 2019-05-14 2021-11-12 엘지전자 주식회사 적응적 루프 필터 기반 비디오 또는 영상 코딩
US11019334B2 (en) 2019-05-17 2021-05-25 Qualcomm Incorporated Multiple adaptive loop filter sets for video coding
CN114097228B (zh) 2019-06-04 2023-12-15 北京字节跳动网络技术有限公司 具有几何分割模式编解码的运动候选列表
US11166033B2 (en) 2019-06-06 2021-11-02 Qualcomm Incorporated Adaptation parameter set in access unit in video coding
US11736688B2 (en) 2019-06-21 2023-08-22 Qualcomm Incorporated Adaptive loop filter signalling
KR20220030995A (ko) 2019-07-14 2022-03-11 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 비디오 코딩에서 변환 블록 크기 제한
WO2021057996A1 (en) 2019-09-28 2021-04-01 Beijing Bytedance Network Technology Co., Ltd. Geometric partitioning mode in video coding
US11432016B2 (en) 2019-12-05 2022-08-30 Hfi Innovation Inc. Methods and apparatuses of syntax signaling constraint for cross-component adaptive loop filter in video coding system
US11563980B2 (en) 2020-04-02 2023-01-24 Qualcomm Incorporated General constraint information syntax in video coding

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Jianle Chen, et al.,"Algorithm description for Versatile Video Coding and Test Model 6 (VTM 6)",Document: JVET-O2002-v1, [online],JVET-O2002 (version 1),Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,2019年08月15日,Pages 1-6 and 48-49 (Section 3.4.12),[令和5年1月11日検索], インターネット, <URL: https://jvet-experts.org/doc_end_user/current_document.php?id=7826> and <URL: https://jvet-experts.org/doc_end_user/documents/15_Gothenburg/wg11/JVET-O2002-v1.zip>.

Also Published As

Publication number Publication date
EP3963890A1 (en) 2022-03-09
KR20220016832A (ko) 2022-02-10
EP3963890A4 (en) 2022-11-02
US20220103834A1 (en) 2022-03-31
WO2020244571A1 (en) 2020-12-10
CN117395397A (zh) 2024-01-12
CN113966616B (zh) 2023-11-14
BR112021023918A2 (pt) 2022-01-18
US20230188729A1 (en) 2023-06-15
KR102627821B1 (ko) 2024-01-23
US11575911B2 (en) 2023-02-07
CN113966616A (zh) 2022-01-21
JP2022535544A (ja) 2022-08-09
JP2023166518A (ja) 2023-11-21

Similar Documents

Publication Publication Date Title
KR102649200B1 (ko) 인트라 블록 복제-코딩된 블록에 대한 블록 벡터의 코딩
JP7231729B2 (ja) イントラブロックコピーのための履歴ベース動き候補リスト構築
JP7425808B2 (ja) 動き候補リスト構築プロセスの条件付き実行
JP7346599B2 (ja) ビデオ・データ処理方法、装置、記憶媒体及び記憶方法
JP2022519883A (ja) デコーダ側精緻化ツールのサイズ選択アプリケーション
JP7318099B2 (ja) ビデオコーディングにおける変換ブロック・サイズ制約
JP7460661B2 (ja) 映像符号化のための動き候補リストの構成
WO2021047542A1 (en) Recursive splitting of video coding blocks
US11863771B2 (en) Updating of history based motion vector prediction tables
WO2021036985A1 (en) Context adaptive coding of block vectors

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211203

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230906

R150 Certificate of patent or registration of utility model

Ref document number: 7346599

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150