JP2022553364A - ビデオ・データを処理する方法、装置及び記憶媒体 - Google Patents
ビデオ・データを処理する方法、装置及び記憶媒体 Download PDFInfo
- Publication number
- JP2022553364A JP2022553364A JP2022523815A JP2022523815A JP2022553364A JP 2022553364 A JP2022553364 A JP 2022553364A JP 2022523815 A JP2022523815 A JP 2022523815A JP 2022523815 A JP2022523815 A JP 2022523815A JP 2022553364 A JP2022553364 A JP 2022553364A
- Authority
- JP
- Japan
- Prior art keywords
- video
- block
- rule
- equal
- current
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 319
- 238000012545 processing Methods 0.000 title description 20
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims abstract description 25
- 238000003672 processing method Methods 0.000 claims abstract description 24
- 241000023320 Luma <angiosperm> Species 0.000 claims description 144
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 claims description 132
- 238000005192 partition Methods 0.000 claims description 19
- 230000009466 transformation Effects 0.000 claims description 16
- 238000013507 mapping Methods 0.000 claims description 14
- 230000001131 transforming effect Effects 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 12
- 238000000638 solvent extraction Methods 0.000 claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 230000011664 signaling Effects 0.000 claims description 9
- 239000000523 sample Substances 0.000 description 198
- 230000008569 process Effects 0.000 description 125
- 239000013598 vector Substances 0.000 description 103
- 239000013074 reference sample Substances 0.000 description 21
- 238000001914 filtration Methods 0.000 description 20
- 230000006978 adaptation Effects 0.000 description 19
- 238000003491 array Methods 0.000 description 18
- 238000005516 engineering process Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 230000008859 change Effects 0.000 description 9
- 230000001143 conditioned effect Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000013139 quantization Methods 0.000 description 8
- 238000012952 Resampling Methods 0.000 description 7
- 101150067055 minC gene Proteins 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 239000011449 brick Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/59—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
パリ条約に関して適用可能な特許法及び/又は規則に基づいて、本願は、2019年8月23日付で出願された国際特許出願第PCT/CN2019/112820号、及び2019年12月30日付で出願された国際特許出願第PCT/CN2019/129959号についての優先権及び利益を適時に主張するために行われている。法に基づく全ての目的に関し、前述の出願の全ての開示は、本願の開示の一部として参照により援用される。
本件特許明細書等はビデオ・コーディング及びデコーディングに関連する。
ビデオ圧縮の進歩にもかかわらず、デジタル・ビデオは、インターネット及びその他のデジタル通信ネットワークにおいて利用する最大の帯域幅を占めている。ビデオを受信及び表示することが可能な接続ユーザー・デバイスの台数が増加するにつれて、デジタル・ビデオの利用に対する帯域幅需要は増加し続けるであろうということが予想される。
本件はビデオ・コーディング技術に関連する。具体的には、本件はビデオ・コーディングにおける適応解像度変換に関連する。これは、HEVCのような既存のビデオ/画像コーディング規格、又はファイナライズされる予定の規格(Versatile Video Coding, VVC)に適用される可能性がある。本件は将来的なビデオ・コーディング規格又はビデオ・コーデックにも適用される可能性がある。
ビデオ・コーディング規格は、主に周知のITU-T及びISO/IEC規格の開発を通じて発展してきた。ITU-TはH.261とH.263を作成し、ISO/IECはMPEG-1とMPEG-4 Visualを作成し、2つの組織は共同してH.262/MPEG-2 VideoとH.264/MPEG-4 Advanced Video Coding(AVC)とH.265/HEVC[1]規格とを作成した。H.262以来、ビデオ・コーディング規格はハイブリッド・ビデオ・コーディング構造に基づいており、そこでは時間的予測と変換コーディングが使用される。HEVCを越える将来のビデオ・コーディング技術を探求するため、2015年に共同ビデオ探査チーム(Joint Video Exploration Team,JVET)がVCEGとMPEGにより共同で設立された。それ以来、多くの新しい方法がJVETによって採用されており、共同探索モデル(Joint Exploration Model,JEM)[3][4]と名付けられる参照ソフトウェアに入れられている。2018年4月には、VCEG(Q6/16)とISO/IEC JTC1 SC29/WG11(MPEG)との間で共同ビデオ・エキスパート・チーム(JVET)が誕生し、HEVCと比較して対して50%のビットレート低減を目指すVVC規格に取り組んでいる。
- テレビ電話及び会議におけるレート・アダプテーション:コーディングされるビデオを、変化するネットワーク条件に適応させるために、ネットワーク条件が悪化して利用可能な帯域幅が小さくなると、エンコーダは、より小さな解像度のピクチャを符号化することによって、それに合わせることができる。現在、ピクチャの解像度を変化させることは、IRAPピクチャの後でしか行うことができないが;これには幾つかの問題がある。妥当な品質のIRAPピクチャは、インター・コーディングされたピクチャよりもはるかに大きく、相応して復号化がより複雑化するであろう:これには時間とリソースがかかる。解像度の変更が、ローディングの理由でデコーダによって要求された場合、それは問題となる。また、低遅延バッファ条件に違反し、オーディオの再同期を強制し、ストリームのエンド・ツー・エンド遅延が少なくとも一時的に増加する可能性がある。これは貧弱なユーザー体験をもたらす可能性がある。
このモードは、参照ピクチャを、予測のために使用する前にワープする(warp)アルゴリズムを記述している。これは、予測されるピクチャとは異なるソース・フォーマットを有する参照ピクチャを、リサンプリングするのに有用である可能性がある。それはまた、参照ピクチャの形状、サイズ、及び位置をワーピング(warping)することによって、グローバル動き推定又は回転運動の推定に使用することも可能である。シンタックスは、リサンプリング・アルゴリズムにも使用されるべきワーピング・パラメータを含む。参照ピクチャ・リサンプリング・モードに関する動作の最もシンプルなレベルは、4リサンプリングの暗黙的なファクターであり、なぜならFIRフィルタがアップサンプリング及びダウンサンプリング・プロセスに適用されることを必要とするだけだからである。この場合、追加的なシグナリング・オーバヘッドは必要とされず、なぜなら、それを使用することは、新たなピクチャ(ピクチャ・ヘッダで示される)のサイズが以前のピクチャのサイズと異なる場合であると理解されるからである。
以下に挙げられているように、ARCに対処する幾つかの貢献(contributions)が提案されている:
[0034]JVET-M0135, JVET-M0259, JVET-N0048, JVET-N0052, JVET-N0118, JVET-N0279.
[0035] 2.3 JVET-O2001-v14におけるARC
ARCは、リファレンス・ピクチャ・リサンプリング(Reference Picture Resampling, RPR)としても知られており、これはJVET-O2001-v14で導入されている。
8.5.6.3.1 概要
このプロセスへの入力は以下の通りである:
- 現在のピクチャの左上ルマ・サンプルに対する、現在のコーディング・サブブロックの左上サンプルを指定するルマ位置( xSb, ySb ) ,
- 現在のコーディング・サブブロックの幅を指定する変数sbWidth,
- 現在のコーディング・サブブロックの高さを指定する変数sbHeight,
- 動きベクトルオフセットmvOffset,
- 精密化された動きベクトルrefMvLX,
- 選択された参照ピクチャ・サンプル配列refPicLX,
- ハーフ・サンプル補間フィルタ・インデックスhpelIfIdx,
- 双方向オプティカル・フロー・フラグbdofFlag,
- 現在のブロックのカラー成分インデックスを指定する変数cIdx.
このプロセスの出力は以下の通りである:
- 予測サンプル値の(sbWidth + brdExtSize)x(sbHeight + brdExtSize)の配列predSamplesLX。
brdExtSize = ( bdofFlag | | ( inter_affine_flag[ xSb ][ ySb ] && sps_affine_prof_enabled_flag ) ) ? 2 : 0 (8-752)
変数fRefWidthは、ルマ・サンプルの参照ピクチャのPicOutputWidthLに等しく設定される。
変数fRefHeightは、ルマ・サンプルの参照ピクチャのPicOutputHeightLに等しく設定される。
動きベクトルmvLXは、( refMvLX - mvOffset )に等しく設定される。
- cIdxが0に等しい場合、以下が適用される:
- スケーリング因子とその固定小数点表現は、次のように定義される
- それ以外の場合(cIdxは0に等しくない)、以下が適用される:
- ( xIntC, yIntC )を、フル・サンプル単位で与えられるクロマ位置であるとし、( xFracC, yFracC )を、1/32サンプル単位で与えられるオフセットであるとする。これらの変数は、参照サンプル配列refPicLX内の一般的な分数サンプル位置を指定するためにこの条項においてのみ使用される。
( ySb / SubHeightC ) + ( mvLX[ 1 ] >> 5 ) )に等しく設定される。
xIntC = refxC >> 5 (8-767)
yIntC = refyC >> 5 (8-768)
xFracC = refyC & 31 (8-769)
yFracC = refyC & 31 (8-770)
- 予測サンプル値predSamplesLX[ xC ][ yC ]は、条項8.5.6.3.4で規定されるプロセスを、( xIntC, yIntC ), ( xFracC, yFracC ), ( xSbIntC, ySbIntC ), sbWidth, sbHeight 及び refPicLXを入力として起動することによって、導出される。
ルマ・サンプル補間フィルタリング・プロセス
このプロセスへの入力は以下の通りである:
- フル・サンプル単位におけるルマ位置( xIntL, yIntL ) ,
- 分数サンプル単位におけるルマ位置( xFracL, yFracL ),
- 参照ピクチャの左上ルマ・サンプルに対する、参照サンプル・パディングのための境界ブロックの左上サンプルを指定するフル・サンプル単位におけるルマ位置( xSbIntL, ySbIntL ),
- ルマ参照サンプル配列refPicLXL,
- ハーフ・サンプル補間フィルタ・インデックスhpelIfIdx,
- 現在のサブ・ブロックの幅を指定する変数sbWidth,
- 現在のサブ・ブロックの高さを指定する変数sbHeight,
- 現在のピクチャの左上ルマ・サンプルに対する、現在のサブ・ブロックの左上サンプルを指定するルマ位置( xSb, ySb ).
このプロセスの出力は、予測されたルマ・サンプル値predSampleLXLである。
変数shift1, shift2 及びshift3は、以下のように導出される:
- 変数shift1は、Min( 4, BitDepthY - 8 )に等しく設定され、変数shift2は6に等しく設定され、変数shift3は、Max( 2, 14 - BitDepthY )に等しく設定される。
- 変数picWは、pic_width_in_luma_samplesに等しく設定され、変数picHは、pic_height_in_luma_samplesに等しく設定される。
xFracL又はyFracLに等しい1/16分数サンプル位置p各々に関し、ルマ補間フィルタ係数fL[ p ]は、以下のように導出される:
- MotionModelIdc[ xSb ][ ySb ]が0より大きく、sbWidthとsbHeightが双方とも4に等しい場合、ルマ補間フィルタ係数fL[ p ]は、テーブル8-12で規定される。
- それ以外の場合、ルマ補間フィルタ係数fL[ p ]は、hpelIfIdxに依存してテーブル8-11で規定される。
フル・サンプル単位におけるルマ位置( xInti, yInti )は、i = 0..7に対して以下のように導出される:
- subpic_treated_as_pic_flag[ SubPicIdx ]が1に等しい場合、以下が適用される:
xInti = Clip3( SubPicLeftBoundaryPos, SubPicRightBoundaryPos, xIntL + i - 3) (8-771)
yInti = Clip3( SubPicTopBoundaryPos, SubPicBotBoundaryPos, yIntL + i - 3) (8-772)
- それ以外の場合(subpic_treated_as_pic_flag[ SubPicIdx ]が0に等しい)、以下が適用される:
xInti = Clip3( 0, picW - 1, sps_ref_wraparound_enabled_flag ?
ClipH( ( sps_ref_wraparound_offset_minus1 + 1 ) * MinCbSizeY, picW, xIntL + i - 3 ) : (8-773)
xIntL + i - 3 )
yInti = Clip3( 0, picH - 1, yIntL + i - 3 ) (8-774)
フル・サンプル単位におけるルマ位置は、i = 0..7に対して以下のように更に修正される:
xInti = Clip3( xSbIntL - 3, xSbIntL + sbWidth + 4, xInti ) (8-775)
yInti = Clip3( ySbIntL - 3, ySbIntL + sbHeight + 4, yInti ) (8-776)
予測されたルマ・サンプル値predSampleLXLは、以下のように導出される:
- xFracLと yFracLの双方が0に等しい場合、predSampleLXLの値は、以下のように導出される:
predSampleLXL = refPicLXL[ xInt3 ][ yInt3 ] << shift3 (8-777)
- それ以外の場合、xFracL isが0に等しくなく、且つyFracLが0に等しいならば、predSampleLXLの値は、以下のように導出される:
- サンプル配列temp[ n ](n = 0..7)は、以下のように導出される:
このプロセスへの入力は以下の通りである:
- フル・サンプル単位におけるルマ位置( xIntL, yIntL ),
- ルマ参照サンプル配列refPicLXL.
このプロセスの出力は、予測されたルマ・サンプル値predSampleLXLである。
変数shiftは、Max( 2, 14 - BitDepthY )に等しく設定される。
変数picWは、pic_width_in_luma_samplesに等しく設定され、変数picHは、pic_height_in_luma_samplesに等しく設定される。
フル・サンプル単位におけるルマ位置( xInt, yInt )は、以下のように導出される:
xInt = Clip3( 0, picW - 1, sps_ref_wraparound_enabled_flag ? (8-782)
ClipH( ( sps_ref_wraparound_offset_minus1 + 1 ) * MinCbSizeY, picW, xIntL ) : xIntL )
yInt = Clip3( 0, picH - 1, yIntL ) (8-783)
予測されたルマ・サンプル値predSampleLXLは、以下のように導出される:
predSampleLXL = refPicLXL[ xInt ][ yInt ] << shift3 (8-784)
クロマ・サンプル補間プロセス
このプロセスへの入力は以下の通りである:
- フル・サンプル単位におけるクロマ位置( xIntC, yIntC ),
- 1/32分数サンプル単位におけるクロマ位置( xFracC, yFracC ),
- 参照ピクチャの左上クロマ・サンプルに対する、参照サンプル・パディングのための境界ブロックの左上サンプルを指定するフル・サンプル単位におけるクロマ位置( xSbIntC, ySbIntC ),
- 現在のサブ・ブロックの幅を指定する変数sbWidth,
- 現在のサブ・ブロックの高さを指定する変数sbHeight,
- クロマ参照サンプル配列refPicLXC.
このプロセスの出力は、予測されたクロマ・サンプル値predSampleLXCである。
変数shift1, shift2 及びshift3は、以下のように導出される:
- 変数shift1は、Min( 4, BitDepthC - 8 )に等しく設定され、変数shift2は、6に等しく設定され、変数shift3は、Max( 2, 14 - BitDepthC )に等しく設定される。
- 変数picWCは、pic_width_in_luma_samples / SubWidthCに等しく設定され、変数picHCは、pic_height_in_luma_samples / SubHeightCに等しく設定される。
xFracC又はyFracC に等しい1/32分数サンプル位置p各々に関するクロマ補間フィルタ係数fC[ p ] は、テーブル8-13で規定される。
変数xOffsetは、( sps_ref_wraparound_offset_minus1 + 1 ) * MinCbSizeY ) / SubWidthCに等しく設定される。
フル・サンプル単位におけるクロマ位置( xInti, yInti )は、i = 0..3に関して以下のように導出される:
- subpic_treated_as_pic_flag[ SubPicIdx ]が1に等しい場合、以下が適用される:
xInti = Clip3( SubPicLeftBoundaryPos / SubWidthC, SubPicRightBoundaryPos / SubWidthC, xIntL + i ) (8-785)
yInti = Clip3( SubPicTopBoundaryPos / SubHeightC, SubPicBotBoundaryPos / SubHeightC, yIntL + i ) (8-786)
- それ以外の場合(subpic_treated_as_pic_flag[ SubPicIdx ]が0に等しい)、以下が適用される:
xInti = Clip3( 0, picWC - 1, sps_ref_wraparound_enabled_flag ? ClipH( xOffset, picWC, xIntC + i - 1 ) : (8-787)
xIntC + i - 1 )
yInti = Clip3( 0, picHC - 1, yIntC + i - 1 ) (8-788)
フル・サンプル単位におけるクロマ位置( xInti, yInti )は、i = 0..3に関して以下のように更に修正される:
xInti = Clip3( xSbIntC - 1, xSbIntC + sbWidth + 2, xInti ) (8-789)
yInti = Clip3( ySbIntC - 1, ySbIntC + sbHeight + 2, yInti ) (8-790)
予測されたクロマ・サンプル値predSampleLXCは、以下のように導出される:
- xFracCとyFracCの双方が0に等しい場合、predSampleLXCの値は、以下のように導出される:
predSampleLXC = refPicLXC[ xInt1 ][ yInt1 ] << shift3 (8-791)
- それ以外の場合、xFracC が0に等しくなく、且つyFracC が0に等しい場合、predSampleLXCの値は、以下のように導出される:
- サンプル配列temp[ n ] (n = 0..3)は、以下のように導出される:
predSampleLXC =( fC[ "yFracC " ][ 0 ] * temp[ 0 ] +
fC[ "yFracC" ][ 1 ] * temp[ 1 ] +
fC[ "yFracC" ][ 2 ] * temp[ 2 ] + (8-795)
fC[ "yFracC" ][ 3 ] * temp[ 3 ] ) >> shift2
テーブル8-13 - 1/32分数サンプル位置p各々に関するクロマ補間フィルタ係数fC[ p ]の仕様
図5に示すように、ERP又はPERPピクチャ・フォーマットに対処するために、ラップ・アラウンド・クリッピング(Wrap-Around clipping)がJVET-L0231により提案された。
フル・サンプル単位におけるルマ位置( xInti, yInti )は、i=0..7に対して以下のように導出される:
- subpic_treated_as_pic_flag[ SubPicIdx ]が1に等しい場合、以下が適用される:
xInti = Clip3( SubPicLeftBoundaryPos, SubPicRightBoundaryPos, xIntL + i - 3 ) (8-754)
yInti = Clip3( SubPicTopBoundaryPos, SubPicBotBoundaryPos, yIntL + i - 3 ) (8-755)
- それ以外の場合(subpic_treated_as_pic_flag[ SubPicIdx ]が0に等しい)、以下が適用される:
xInti = Clip3( 0, picW - 1, sps_ref_wraparound_enabled_flag ?
ClipH( ( sps_ref_wraparound_offset_minus1 + 1 ) * MinCbSizeY, picW, xIntL + i - 3 ) : (8-756)
xIntL + i - 3 )
yInti = Clip3( 0, picH - 1, yIntL + i - 3 ) (8-757)
[0041] 2.5 VVCにおけるCCLM
JVET-P2001-v9で規定されているように、VVCにおけるクロス・コンポーネント線型モデル(CCLM)予測のためにパラメータが導出される:
8.4.5.2.13 INTRA_LT_CCLM, INTRA_L_CCLM 及びINTRA_T_CCLMイントラ予測モードの仕様
・・・
7. 変数a,b,及びkは、以下のように導出される:
- numSampLが0に等しく、且つnumSampTが0に等しい場合、以下が適用される:
k = 0 (8-211)
a = 0 (8-212)
b = 1 << ( BitDepth - 1 ) (8-213)
- それ以外の場合、以下が適用される:
diff = maxY - minY (8-214)
- diffが0に等しくない場合、以下が適用される:
diffC = maxC - minC (8-215)
x = Floor( Log2( diff ) ) (8-216)
normDiff = ( ( diff << 4 ) >> x ) & 15 (8-217)
x += ( normDiff != 0 ) ? 1 : 0 (8-218)
y = Floor( Log2( Abs ( diffC ) ) ) + 1 (8-219)
a = ( diffC * ( divSigTable[ normDiff ] | 8 ) + 2y - 1 ) >> y (8-220)
k = ( ( 3 + x - y ) < 1 ) ? 1 : 3 + x - y (8-221)
a = ( ( 3 + x - y ) < 1 ) ? Sign( a ) * 15 : a (8-222)
b = minC - ( ( a * minY ) >> k ) (8-223)
ここで、divSigTable[ ]は、以下のように規定される:
divSigTable[ ] = { 0, 7, 6, 5, 5, 4, 4, 3, 3, 2, 2, 1, 1, 1, 1, 0 } (8-224)
- それ以外の場合(diffが0に等しい)、以下が適用される:
k = 0 (8-225)
a = 0 (8-226)
b = minC (8-227)
・・・
[0042] 2.6 VVCにおける角度予測
VVCにおける角度予測は、JVET-P2001-v9で以下のように規定されている:
8.4.5.2.12 INTRA_ANGULAR2..INTRA_ANGULAR66のイントラ予測モードの仕様
このプロセスへの入力は以下の通りである:
- イントラ予測モードpredModeIntra,
- イントラ予測参照ライン・インデックスを指定する変数refIdx,
- 変換ブロック幅を指定する変数nTbW,
- 変換ブロック高さを指定する変数nTbH,
- 参照サンプル幅を指定する変数refW,
- 参照サンプル高さを指定する変数refH,
- コーディング・ブロック幅を指定する変数nCbW,
- コーディング・ブロック高さを指定する変数nCbH,
- 参照フィルタ・フラグの値を指定する変数refFilterFlag,
- 現在のブロックのカラー成分を指定する変数cIdx,
- 隣接サンプルp[ x ][ y ],(x = -1- refIdx, y = -1- refIdx..refH - 1 及び x = -refIdx..refW - 1, y = -1- refIdx).
このプロセスの出力は、予測されたサンプルpredSamples[ x ][ y ]である(x = 0..nTbW - 1, y = 0..nTbH - 1)。
変数nTbSは、 ( Log2 ( nTbW ) + Log2 ( nTbH ) ) >> 1 に等しく設定される。
変数filterFlagは、以下のように導出される:
- 以下の条件のうちの1つ以上が真である場合、filterFlagは0に等しく設定される。
- それ以外の場合、以下が適用される:
- 変数minDistVerHorは、Min( Abs( predModeIntra - 50 ), Abs( predModeIntra - 18 ) )に等しく設定される。
- minDistVerHorが、intraHorVerDistThres[ nTbS ]より大きく、refFilterFlagが0に等しい場合、filterFlagは1に等しく設定される。
テーブル8-17 - 様々な変換ブロック・サイズnTbSに対するintraHorVerDistThres[ nTbS ]の仕様
2.7 VVCにおけるインター予測のためのサンプル・フェッチ
8.5.6.3.2 ルマ・サンプル補間フィルタリング・プロセス
・・・
フル・サンプル単位におけるルマ位置( xInti, yInti )は、i = 0..7に対して以下のように導出される:
- subpic_treated_as_pic_flag[ SubPicIdx ]が1に等しい場合、以下が適用される:
xInti = Clip3( SubPicLeftBoundaryPos, SubPicRightBoundaryPos, xIntL + i - 3 ) (8-754)
yInti = Clip3( SubPicTopBoundaryPos, SubPicBotBoundaryPos, yIntL + i - 3 ) (8-755)
- それ以外の場合(subpic_treated_as_pic_flag[ SubPicIdx ]が0に等しい)、以下が適用される:
xInti = Clip3( 0, picW - 1, sps_ref_wraparound_enabled_flag ?
ClipH( ( sps_ref_wraparound_offset_minus1 + 1 ) * MinCbSizeY, picW, xIntL + i - 3 ) :
xIntL + i - 3 )
yInti = Clip3( 0, picH - 1, yIntL + i - 3 )
フル・サンプル単位におけるルマ位置は、i = 0..7に対して以下のように更に修正される:
xInti = Clip3( xSbIntL - 3, xSbIntL + sbWidth + 4, xInti )
yInti = Clip3( ySbIntL - 3, ySbIntL + sbHeight + 4, yInti )
予測されたルマ・サンプル値predSampleLXLは、以下のように導出される:
- xFracLとyFracL の双方が0に等しく、且つhori_scale_fpとvert_scale_fpが20481より小さい場合、predSampleLXLの値は、以下のように導出される:
predSampleLXL = refPicLXL[ xInt3 ][ yInt3 ] << shift3
・・・
8.5.6.3.4 クロマ・サンプル補間プロセス
・・・
フル・サンプル単位におけるクロマ位置( xInti, yInti )は、i = 0..3に対して以下のように更に修正される:
xInti = Clip3( xSbIntC - 1, xSbIntC + sbWidth + 2, xInti ) (8-774)
yInti = Clip3( ySbIntC - 1, ySbIntC + sbHeight + 2, yInti ) (8-775)
[0043] 2.8 サブピクチャ
VVCでは、サブピクチャの概念が導入されている。サブピクチャは、ピクチャ内の1つ以上のスライスの矩形領域である。ビデオ・シーケンスでは、複数のサブピクチャを使用することができる。そして、全てのピクチャは、SPSで定義される同数のサブピクチャに分割される。
7.3.2.3 シーケンス・パラメータ・セットPBSPシンタックス
注2 - ビットストリームが、サブ・ビット・ストリーム抽出プロセスの結果であり、サブ・ビット・ストリーム抽出プロセスに対する入力ビットストリームのサブピクチャのサブセットのみを含む場合、それは、SPSのRBSPの1において、1に等しいsubpics_present_flagの値を設定するように要求される可能性がある。
sps_num_subpics_minus1プラス1は、サブピクチャの数を指定する。sps_num_subpics_minus1は、0ないし254の範囲内にあるものとする。それが存在しない場合、sps_num_subpics_minus1の値は、0に等しいと推定される。
subpic_ctu_top_left_x[ i ]は、CtbSizeYの単位でi番目のサブピクチャの左上CTUの水平位置を指定する。シンタックス要素の長さは、Ceil( Log2( pic_width_max_in_luma_samples / CtbSizeY ) )ビットである。それが存在しない場合、subpic_ctu_top_left_x[ i ]の値は、0に等しいと推定される。
subpic_ctu_top_left_y[ i ]は、CtbSizeYの単位でi番目のサブピクチャの左上CTUの垂直位置を指定する。シンタックス要素の長さは、Ceil( Log2( pic_height_max_in_luma_samples / CtbSizeY ) )ビットである。それが存在しない場合、subpic_ctu_top_left_y[ i ]の値は、0に等しいと推定される。
subpic_width_minus1[ i ]プラス1は、CtbSizeYの単位でi番目のサブピクチャの幅を指定する。シンタックス要素の長さは、Ceil( Log2( pic_width_max_in_luma_samples / CtbSizeY ) )ビットである。それが存在しない場合、subpic_width_minus1[ i ]の値は、Ceil( pic_width_max_in_luma_samples / CtbSizeY ) - 1に等しいと推定される。
subpic_height_minus1[ i ]プラス1は、CtbSizeYの単位でi番目のサブピクチャの高さを指定する。シンタックス要素の長さは、Ceil( Log2( pic_height_max_in_luma_samples / CtbSizeY ) )ビットである。それが存在しない場合、subpic_height_minus1[ i ]の値は、Ceil( pic_height_max_in_luma_samples / CtbSizeY ) - 1に等しいと推定される。
1に等しいsubpic_treated_as_pic_flag[ i ]は、CLVSにおける各々のコーディングされたピクチャのi番目のサブピクチャが、ループ内フィルタリング処理を除く復号化プロセスにおいてピクチャとして取り扱われることを指定する。0に等しいsubpic_treated_as_pic_flag[ i ]は、CLVSにおける各々のコーディングされたピクチャのi番目のサブピクチャが、ループ内フィルタリング処理を除く復号化プロセスにおいてピクチャとして取り扱われないことを指定する。それが存在しない場合、subpic_treated_as_pic_flag[ i ]の値は、0に等しいと推定される。
1に等しいloop_filter_across_subpic_enabled_flag[ i ]は、ループ内フィルタリング処理が、CLVSにおける各々のコーディングされたピクチャのi番目のサブピクチャの境界を跨いで実行されてもよいことを指定する。0に等しいloop_filter_across_subpic_enabled_flag[ i ]は、ループ内フィルタリング処理が、CLVSにおける各々のコーディングされたピクチャのi番目のサブピクチャの境界を跨いでは実行されないことを指定する。それが存在しない場合、loop_filter_across_subpic_enabled_pic_flag[ i ]の値は、0に等しいと推定される。
以下の制約が適用されることは、ビットストリーム適合性(bitstream conformance)の要件である:
- 任意の2つのサブピクチャsubpicA と subpicBに関し、subpicAのサブピクチャ・インデックスが、subpicBのものより小さい場合、subpicAの任意のコーディングされたスライスNALユニットは、復号化順序において、subpicBの任意のコーディングされたスライスNALユニットに先行するものとする。
- サブピクチャの形状は次のようなものであるものとする:復号化される場合に、各サブピクチャは、ピクチャ境界から構成される、又は先行して復号化されたサブピクチャの境界から構成される、完全な左境界と完全な上境界とを有するものとする。
1に等しいsps_subpic_id_present_flagは、サブピクチャIDマッピングがSPS内に存在することを指定する。0に等しいsps_subpic_id_present_flagは、サブピクチャIDマッピングがSPS内に存在しないことを指定する。
1に等しいsps_subpic_id_signalling_present_flagは、サブピクチャIDマッピングが、SPSでシグナリングされることを指定する。0に等しいsps_subpic_id_signalling_present_flagは、サブピクチャIDマッピングが、SPSでシグナリングされないことを指定する。それが存在しない場合、sps_subpic_id_signalling_present_flagの値は、0に等しいと推定される。
sps_subpic_id_len_minus1プラス1は、シンタックス要素sps_subpic_id[ i ]を表現するために使用されるビット数を指定する。sps_ subpic_id_len_minus1の値は、両端を含む0ないし15の範囲内にあるものとする。
sps_subpic_id[ i ]は、i番目のサブピクチャのサブピクチャIDを指定する。シンタックス要素sps_subpic_id[ i ]の長さは、sps_subpic_id_len_minus1 + 1ビットである。それが存在しない場合であって、sps_subpic_id_present_flagが0に等しい場合、sps_subpic_id[ i ]の値は、両端を含む0ないしsps_num_subpics_minus1の範囲内の各々のiに関し、iに等しいと推定される。
7.3.2.4 ピクチャ・パラメータ・セットRBSPシンタックス
7.3.7.1 一般的なスライス・ヘッダ・シンタックス
- sps_subpic_id_signalling_present_flagが1に等しい場合、slice_subpic_idの長さは、sps_subpic_id_len_minus1 + 1に等しい。
- それ以外の場合、ph_subpic_id_signalling_present_flagが1に等しいならば、slice_subpic_idの長さは、ph_subpic_id_len_minus1 + 1に等しい。
- それ以外の場合、pps_subpic_id_signalling_present_flagが1に等しいならば、slice_subpic_idの長さは、pps_subpic_id_len_minus1 + 1に等しい。
- それ以外の場合、slice_subpic_idの長さは、Ceil( Log2 ( sps_num_subpics_minus1 + 1 ) )に等しい。
[0045] 3. 本件で開示される技術的解決策により対処する技術的課題
RPRがVVCに適用される場合、RPR(ARC)は、以下の問題を有する可能性がある:
1. RPRでは、補間フィルタが、ブロック内の隣接するサンプルに対して異なる可能性があり、これは単一命令複数データ(Single Instruction Multiple Data, SIMD)の実装では望ましくない。
[0046] 4. 実施形態と技術の一覧
以下のリストは、一般的な概念を説明するための例として考察されるべきである。これらのアイテムは、狭義に解釈されるべきではない。更に、これらのアイテムは任意の方法で組み合わせることが可能である。
RPR関連
1. 参照ピクチャの解像度が現在のピクチャと異なる場合、現在のブロックのサンプルのグループ(少なくとも2つのサンプル)についての予測値は、同じ水平及び/又は垂直補間フィルタを用いて生成されてもよい。
2. 参照ピクチャの解像度が現在のピクチャと異なる場合、動き補償プロセスを実行して現在のブロックの予測ブロックを導出するために、整数MVのみが許容されることを提案する。
3. 現在のブロック内のサンプルに対する動き補償プロセスで使用される動きベクトル(例えば、上記の箇条書きで言及された共有MV/共有水平又は垂直又は分数成分/MV’)は、復号化されたピクチャ・バッファに格納され、現在の/異なるピクチャ内の後続するブロックの動きベクトル予測のために使用される可能性がある。
4. 現在のブロックの予測ブロックを導出するために動き補償プロセスで使用される補間フィルタは、参照ピクチャの解像度が現在のピクチャと異なるかどうかに依存して選択されてもよいことを提案する。
5. 参照ピクチャの解像度が現在のピクチャと異なる場合、予測ブロック生成のための2段階プロセスが適用されることを提案する。
6. JVET-O2001-v14の8.5.6.3.1で定義されているような参照サンプル・パディングのための境界ブロックの左上座標( xSbIntL, ySbIntL )の計算は、現在のピクチャと参照ピクチャの幅及び/又は高さに依存して導出されてもよいことを提案する。
xInti = Clip3( xSbIntL - Dx, xSbIntL + sbWidth + Ux, xInti ),
yInti = Clip3( ySbIntL - Dy, ySbIntL + sbHeight + Uy, yInti ),
ここで、Dx及び/又はDy及び/又はUx及び/又はUyは、現在のピクチャ及び参照ピクチャの幅及び/又は高さに依存する可能性がある。
xInti = Clip3( xSbIntC - Dx, xSbIntC + sbWidth + Ux, xInti )
yInti = Clip3( ySbIntC - Dy, ySbIntC + sbHeight + Uy, yInti )
ここで、Dx及び/又はDy及び/又はUx及び/又はUyは、現在のピクチャ及び参照ピクチャの幅及び/又は高さに依存する可能性がある。
7. (例えば、JVET-O2001-v14の8.5.6.3.1で規定されている( xSbIntL, ySbIntL )のような)参照サンプル・パディングのための境界ブロックに従ってMVをクリップするかどうか、及び/又はどのようにクリップするかは、DMVRの用法に依存してもよいことを提案する。
8. (例えば、JVET-O2001-v14の8.5.6.3.1で規定されている( xSbIntL, ySbIntL )のような)参照サンプル・パディングのための境界ブロックに従ってMVをクリップするかどうか、及び/又はどのようにクリップするかは、ピクチャ・ラッピングが使用されるかどうか(例えば、sps_ref_wraparound_enabled_flagが0に等しいか又は1に等しいかどうか)に依存してもよいことを提案する。
xInti = Clip3( xSbIntL - Dx, xSbIntL + sbWidth + Ux, xInti ),
yInti = Clip3( ySbIntL - Dy, ySbIntL + sbHeight + Uy, yInti ),
ここで、Dx及び/又はDy及び/又はUx及び/又はUyは、ピクチャ・ラッピングが使用されるかどうかに依存する可能性がある。
xInti = Clip3( xSbIntC - Dx, xSbIntC + sbWidth + Ux, xInti )
yInti = Clip3( ySbIntC - Dy, ySbIntC + sbHeight + Uy, yInti )
ここで、Dx及び/又はDy及び/又はUx及び/又はUyは、ピクチャ・ラッピングが使用されるかどうかに依存する可能性がある。
9. フィルタリング・プロセス(例えば、デブロッキング・フィルタ)を適用するかどうか/どのように適用するかは、参照ピクチャが異なる解像度を伴うかどうかに依存する可能性がある。
10. 現在のピクチャと同じ参照ピクチャ解像度に基づくブロックの動きベクトルを記憶/使用する代わりに、解像度の差を考慮した実際の動きベクトルを使用することを提案する。
11. 一例において、サブピクチャが存在する場合、参照ピクチャは現在のピクチャと同じ解像度を有する必要がある。
a. 代替的に、参照ピクチャが現在のピクチャと異なる解像度を有する場合、現在のピクチャにサブピクチャは一切存在しないことを要する。
12. 一例において、サブピクチャは、異なる解像度を有するピクチャに対して別々に定義されてもよい。
13. 一例において、参照ピクチャが現在のピクチャとは異なる解像度を有する場合、参照ピクチャ内の対応するサブピクチャは、現在のピクチャのサブピクチャをスケーリング及び/又はオフセット処理を行うことによって導出することができる。
14. ラップ・アラウンド・クリッピングに関連する情報の全部又は一部は、ピクチャ/ビュー/スライス/タイル/ブリック/サブピクチャ/CTU行レベルなどのような、シーケンス・レベル以外のビデオ・ユニットでシグナリングされてもよいことを提案する。
15. Xが0以下であるLog2(X)の数式は、アフィン・マージ候補を導出するためには回避されるべきであることを提案する。
8.5.5.6 構築されたアフィン制御ポイント動きベクトル・マージ候補に対する導出プロセス
・・・
6. availableFlagCorner[ 0 ]がTRUEに等しく、且つavailableFlagCorner[ 2 ]がTRUEに等しい場合、以下が適用される:
- Xが0又は1に置き換えられる場合については、以下が適用される:
- 変数availableFlagLXは、以下のように導出される:
- 以下の全ての条件がTRUEである場合、availableFlagLXはTRUEに等しく設定される:
- predFlagLXCorner[ 0 ]は、1に等しい。
- 第2制御ポイント動きベクトルcpMvLXCorner[ 1 ]は、以下のように導出される:
predFlagLXConst6 = 1 (8-627)
refIdxLXConst6 = refIdxLXCorner[ 0 ] (8-628)
cpMvLXConst6[ 0 ] = cpMvLXCorner[ 0 ] (8-629)
cpMvLXConst6[ 1 ] = cpMvLXCorner[ 1 ] (8-630)
cpMvLXConst6[ 0 ][ 0 ] = Clip3( -217, 217 - 1, cpMvLXConst6[ 0 ][ 0 ] ) (8-631)
cpMvLXConst6[ 0 ][ 1 ] = Clip3( -217, 217 - 1, cpMvLXConst6[ 0 ][ 1 ] ) (8-632)
cpMvLXConst6[ 1 ][ 0 ] = Clip3( -217, 217 - 1, cpMvLXConst6[ 1 ][ 0 ] ) (8-633)
cpMvLXConst6[ 1 ][ 1 ] = Clip3( -217, 217 - 1, cpMvLXConst6[ 1 ][ 1 ] ) (8-634)
- 双-予測ウェイト・インデックスbcwIdxConst6は、bcwIdxCorner[ 0 ]に等しく設定される。
- availableFlagL0又はavailableFlagL1が1に等しい場合、availableFlagConst6は、TRUEに等しく設定され、motionModelIdcConst6は、1に等しく設定される。
16. クロス・コンポーネント線型モデル(Cross‐Component Linear Model, CCLM)におけるパラメータを導出する手順において、Xが0以下のLog2(X)の数式は回避されるべきであることを提案する。
8.4.5.2.13 INTRA_LT_CCLM, INTRA_L_CCLM及びINTRA_T_CCLMのイントラ予測モードの仕様
・・・
7. 変数a, b, 及びkは、以下のように導出される:
- numSampLが0に等しく、且つnumSampTが0に等しい場合、以下が適用される:
k = 0 (8-211)
a = 0 (8-212)
b = 1 << ( BitDepth - 1 ) (8-213)
- それ以外の場合、以下が適用される:
diff = maxY - minY (8-214)
- diffが0に等しくない場合、以下が適用される:
diffC = maxC - minC (8-215)
x = Floor( Log2( diff ) ) (8-216)
normDiff = ( ( diff << 4 ) >> x ) & 15 (8-217)
x += ( normDiff != 0 ) ? 1 : 0 (8-218)
y = diffC > 0 ? Floor( Log2( Abs ( diffC ) ) ) + 1 : 0 (8-219)
a = ( diffC * ( divSigTable[ normDiff ] | 8 ) + 2y - 1 ) >> y (8-220)
k = ( ( 3 + x - y ) < 1 ) ? 1 : 3 + x - y (8-221)
a = ( ( 3 + x - y ) < 1 ) ? Sign( a ) * 15 : a (8-222)
b = minC - ( ( a * minY ) >> k ) (8-223)
ここで、divSigTable[ ]は、以下のように規定される:
divSigTable[ ] = { 0, 7, 6, 5, 5, 4, 4, 3, 3, 2, 2, 1, 1, 1, 1, 0 } (8-224)
- それ以外の場合(diffは0に等しい)、以下が適用される:
k = 0 (8-225)
a = 0 (8-226)
b = minC (8-227)
・・・
d. JVET-P2001-v9に基づく更なる例示的な仕様の変更は、以下の通りである:
i. y = Abs(diffC) > 0 ? Floor( Log2( Abs ( diffC ) ) ) + 1 : 0:
ii.y = diffC == 0 ? 0: Floor( Log2( Abs ( diffC ) ) ) + 1 :
iii. y = Ceil( Log2( Abs( diffC ) + 1 ) ) )
17. 角度イントラ予測の手順において、0による除算は回避されるべきであることを提案する。
8.4.5.2.12 INTRA_ANGULAR2..INTRA_ANGULAR66のイントラ予測モードの仕様
このプロセスへの入力は以下の通りである:
- イントラ予測モードpredModeIntra,
- イントラ予測参照ライン・インデックスを指定する変数refIdx,
- 変換ブロック幅を指定する変数nTbW,
- 変換ブロックの高さを指定する変数nTbH,
- 参照サンプル幅を指定する変数refW,
- 参照サンプルの高さを指定する変数refH,
- コーディング・ブロック幅を指定する変数nCbW,
- コーディング・ブロックの高さを指定する変数nCbH,
- 参照フィルタ・フラグの値を指定する変数refFilterFlag,
- 現在のブロックのカラー成分を指定する変数cIdx,
- 隣接サンプルp[ x ][ y ], (x = -1- refIdx, y = -1- refIdx..refH - 1 及び x = -refIdx..refW - 1, y = -1- refIdx).
このプロセスの出力は、予測されたサンプルpredSamples[ x ][ y ], x = 0..nTbW - 1, y = 0..nTbH - 1である。
変数nTbSは、( Log2 ( nTbW ) + Log2 ( nTbH ) ) >> 1 に等しく設定される。
変数filterFlagは、以下のように導出される:
- 以下の条件のうちの1つ以上が真である場合、filterFlagは0に等しく設定される。
- それ以外の場合、以下が適用される:
- 変数minDistVerHorは、Min( Abs( predModeIntra - 50 ), Abs( predModeIntra - 18 ) )に等しく設定される。
- minDistVerHorが、intraHorVerDistThres[ nTbS ]より大きく、refFilterFlagが、0に等しい場合、filterFlagは、1に等しく設定される。
テーブル8-7 - 様々な変換ブロック・サイズnTbSに対するintraHorVerDistThres[ nTbS ]の仕様
8.5.6.3.2 ルマ・サンプル補間フィルタリング・プロセス
・・・
フル・サンプル単位におけるルマ位置( xInti, yInti )は、i = 0..7に対して以下のように導出される:
- subpic_treated_as_pic_flag[ SubPicIdx ]が1に等しい場合、以下が適用される:
xInti = Clip3( SubPicLeftBoundaryPos, SubPicRightBoundaryPos, xIntL + i - 3 ) (8-754)
yInti = Clip3( SubPicTopBoundaryPos, SubPicBotBoundaryPos, yIntL + i - 3 ) (8-755)
- それ以外の場合(subpic_treated_as_pic_flag[ SubPicIdx ]が0に等しい)、以下が適用される:
xInti = Clip3( 0, picW - 1, sps_ref_wraparound_enabled_flag ?
ClipH( ( sps_ref_wraparound_offset_minus1 + 1 ) * MinCbSizeY, picW, xIntL + i - 3 ) :
xIntL + i - 3 )
yInti = Clip3( 0, picH - 1, yIntL + i - 3 )
hori_scale_fpが(1<<14)に等しく、vert_scale_fpが(1<<14)に等しい場合、フル・サンプル単位におけるルマ位置は、i=0..7に対して以下のように更に修正される。
yInti = Clip3( ySbIntL - 3, ySbIntL + sbHeight + 4, yInti )
予測されたルマ・サンプル値predSampleLXLは、以下のように導出される:
- xFracLとyFracLの双方が0に等しく、hori_scale_fpとvert_scale_fpの双方が20481より小さい場合、predSampleLXLの値は、以下のように導出される:
predSampleLXL = refPicLXL[ xInt3 ][ yInt3 ] << shift3
・・・
8.5.6.3.4 クロマ・サンプル補間プロセス
・・・
hori_scale_fpが(1<<14)に等しく、vert_scale_fpが(1<<14)に等しい場合、フル・サンプル単位におけるクロマ位置( xInti, yInti )は、i=0..3に対して以下のように更に修正される:
xInti = Clip3( xSbIntC - 1, xSbIntC + sbWidth + 2, xInti ) (8-774)
yInti = Clip3( ySbIntC - 1, ySbIntC + sbHeight + 2, yInti ) (8-775)
・・・
f. JVET-P2001-v9に基づく例示的な仕様変更は以下の通りである:
8.5.6.3.2 ルマ・サンプル補間フィルタリング・プロセス
・・・
フル・サンプル単位におけるルマ位置( xInti, yInti )は、i=0..7に対して以下のように導出される:
- subpic_treated_as_pic_flag[ SubPicIdx ]が1に等しい場合、以下が適用される:
xInti = Clip3( SubPicLeftBoundaryPos, SubPicRightBoundaryPos, xIntL + i - 3 ) (8-754)
yInti = Clip3( SubPicTopBoundaryPos, SubPicBotBoundaryPos, yIntL + i - 3 ) (8-755)
- それ以外の場合(subpic_treated_as_pic_flag[ SubPicIdx ]が0に等しい)、以下が適用される:
xInti = Clip3( 0, picW - 1, sps_ref_wraparound_enabled_flag ?
ClipH( ( sps_ref_wraparound_offset_minus1 + 1 ) * MinCbSizeY, picW, xIntL + i - 3 ) :
xIntL + i - 3 )
yInti = Clip3( 0, picH - 1, yIntL + i - 3 )
フル・サンプル単位におけるルマ位置は、i=0..7に対して以下のように更に修正される:
hori_scale_fpが(1<<14)に等しく、vert_scale_fpが(1<<14)に等しい場合:
xInti = Clip3( xSbIntL - 3, xSbIntL + sbWidth + 4, xInti )
hori_scale_fpが(1<<14)に等しく、vert_scale_fpが(1<<14)に等しい場合:
yInti = Clip3( ySbIntL - 3, ySbIntL + sbHeight + 4, yInti )
予測されたルマ・サンプル値predSampleLXLは、以下のように導出される:
- xFracLとyFracLの双方が0に等しく、hori_scale_fpとvert_scale_fpの双方が20481より小さい場合、predSampleLXLの値は、以下のように導出される:
predSampleLXL = refPicLXL[ xInt3 ][ yInt3 ] << shift3
・・・
8.5.6.3.4 クロマ・サンプル補間プロセス
・・・
フル・サンプル単位におけるクロマ位置( xInti, yInti )は、i=0..3に対して以下のように更に修正される:
hori_scale_fpが(1<<14)に等しく、vert_scale_fpが(1<<14)に等しい場合:
xInti = Clip3( xSbIntC - 1, xSbIntC + sbWidth + 2, xInti ) (8-774)
hori_scale_fpが(1<<14)に等しく、vert_scale_fpが(1<<14)に等しい場合:
yInti = Clip3( ySbIntC - 1, ySbIntC + sbHeight + 2, yInti ) (8-775)
・・・
g. 一例において、整数サンプル・クリッピング処理を適用するかどうかは、2つの参照リストのうちの参照ピクチャ(又はそれらの適合ウィンドウ、又はそれらのスケーリング・ウィンドウ)の幅及び/又は高さ、及び現在のピクチャ(又はそれらの適合ウィンドウ、又はそのスケーリング・ウィンドウ)の幅及び/又は高さに依存する可能性がある。
8.5.6.3.2 ルマ・サンプル補間フィルタリング・プロセス
このプロセスへの入力は、以下の通りである:
- フル・サンプル単位におけるルマ位置( xIntL, yIntL ),
・・・
RefPicIsScaled[ 0 ][ refIdxL0 ]が0に等しく、RefPicIsScaled[ 1 ][ refIdxL1 ]が0に等しい場合、フル・サンプル単位におけるルマ位置は、i=0..7に対して以下のように更に修正される:
xInti = Clip3( xSbIntL - 3, xSbIntL + sbWidth + 4, xInti ) (959)
yInti = Clip3( ySbIntL - 3, ySbIntL + sbHeight + 4, yInti ) (960)
予測されたルマ・サンプル値predSampleLXLは、以下のように導出される:
・・・
8.5.6.3.4 クロマサンプル補間処理
このプロセスへの入力は、以下の通りである:
- フル・サンプル単位におけるクロマ位置( xIntC, yIntC ),
・・・
RefPicIsScaled[ 0 ][ refIdxL0 ]が0に等しく、RefPicIsScaled[ 1 ][ refIdxL1 ]が0に等しい場合、フル・サンプル単位におけるクロマ位置( xInti, yInti )は、i=0..3に対して以下のように更に修正される:
xInti = Clip3( xSbIntC - 1, xSbIntC + sbWidth + 2, xInti ) (975)
yInti = Clip3( ySbIntC - 1, ySbIntC + sbHeight + 2, yInti ) (976)
予測されたルマ・サンプル値predSampleLXCは、以下のように導出される:
・・・
i. 一例において、整数サンプル・クリッピング処理を適用するかどうかは、DMVRが適用されるかどうかに依存してもよい。
8.5.6.3.2 ルマ・サンプル補間フィルタリング・プロセス
このプロセスへの入力は、以下の通りである:
- フル・サンプル単位におけるルマ位置( xIntL, yIntL ),
・・・
dmvrFlagが1である場合、フル・サンプル単位におけるルマ位置は、i=0..7に対して以下のように更に修正される:
xInti = Clip3( xSbIntL - 3, xSbIntL + sbWidth + 4, xInti ) (959)
yInti = Clip3( ySbIntL - 3, ySbIntL + sbHeight + 4, yInti ) (960)
予測されたルマ・サンプル値predSampleLXLは、以下のように導出される:
・・・
8.5.6.3.4 クロマサンプル補間プロセス
このプロセスへの入力は、以下の通りである:
- フル・サンプル単位におけるクロマ位置( xIntC, yIntC ),
・・・
dmvrFlagが1である場合、フル・サンプル単位におけるクロマ位置( xInti, yInti )は、i=0..3に対して以下のように更に修正される:
xInti = Clip3( xSbIntC - 1, xSbIntC + sbWidth + 2, xInti ) (975)
yInti = Clip3( ySbIntC - 1, ySbIntC + sbHeight + 2, yInti ) (976)
予測されたルマ・サンプル値predSampleLXCは、以下のように導出される:
・・・
19. ルマ及び/又はクロマ・サンプルに整数サンプル・クリッピング処理を適用するかどうか及び/又はどのように適用するかは、コーディング・ツールXが適用されるかどうかに依存してもよい。(例えば、Xはデコーダ側動きベクトル精密化(DMVR)である)。
GEO 関連
20. 何れの角度/距離がGEOでの使用に許容されるのかは、復号化された情報に依存してもよい(例えば、関連するシンタックス要素、ブロック・ディメンジョン)。
8.5.7 geoインター・ブロックに対する復号化プロセス
8.5.7.1 概要
このプロセスは、1に等しいMergeGeoFlag[ xCb ][ yCb ]を有するコーディング・ユニットを復号化する場合に起動される。
このプロセスへの入力は以下の通りである:
- 現在のピクチャの左上ルマ・サンプルに対する、現在のコーディング・ブロックの左上サンプルを指定するルマ位置( xCb, yCb ),
- ルマ・サンプルの現在のコーディング・ブロックの幅を指定する変数cbWidth,
- ルマ・サンプルの現在のコーディング・ブロックの高さを指定する変数cbHeigh,
- 1/16分数-サンプル精度におけるルマ動きベクトルmvA及びmvB,
- クロマ・動きベクトルmvCA及びmvCB,
- 参照インデックスrefIdxA及びrefIdxB,
- 予測リスト・フラグpredListFlagA及びpredListFlagB.
このプロセスの出力は以下の通りである:
- ルマ予測サンプルの(cbWidth)x(cbHeight)の配列predSamplesL,
- 成分Cbに対するクロマ予測サンプルの(cbWidth / SubWidthC)x(cbHeight / SubHeightC)の配列predSamplesCb,
- 成分Crに対するクロマ予測サンプルの(cbWidth / SubWidthC)x(cbHeight / SubHeightC) array predSamplesCr.
predSamplesLALとpredSamplesLBLを、予測されたルマ・サンプル値の(cbWidth)x(cbHeight)の配列であるとし、predSamplesLACb, predSamplesLBCb, predSamplesLACr and predSamplesLBCrを、予測されたクロマ・サンプル値の(cbWidth / SubWidthC)x(cbHeight / SubHeightC)の配列であるとする。
predSamplesL, predSamplesCb及びpredSamplesCrは、以下の順序付けられたステップで導出される:
1. NがA及びBの各々である場合に関し、以下が適用される:
- ルマ・サンプルの順序づけられた2次元配列refPicLNLとクロマ・サンプルの2つの順序づけられた2次元配列refPicLNCb及びrefPicLNCrとで構成される参照ピクチャは、条項8.5.6.2で規定されるプロセスを、predListFlagNに等しく設定されたXとrefIdxNに等しく設定されたrefIdxXとを入力として、起動することによって導出される。
- 配列predSamplesLNCbは、条項8.5.6.3で規定される分数サンプル補間プロセスを、ルマ位置( xCb, yCb )と、cbWidth / SubWidthCに等しく設定されたコーディング・ブロック幅sbWidthと、 cbHeight / SubHeightCに等しく設定されたコーディング・ブロック高さsbHeightと、( 0, 0)に等しく設定された動きベクトル・オフセットmvOffsetと、mvCNに等しく設定された動きベクトルmvLXと、refPicLNCbに等しく設定された参照配列refPicLXCbと、FALSEに等しく設定された変数bdofFlagと、1に等しく設定された変数cIdxと、RefPicScale[ predListFlagN ][ refIdxN ]とを入力として、起動することによって導出される。
- 配列predSamplesLNCrは、条項8.5.6.3で規定される分数サンプル補間プロセスを、ルマ位置( xCb, yCb )と、cbWidth / SubWidthCに等しく設定されたコーディング・ブロック幅sbWidthと、cbHeight / SubHeightCに等しく設定されたコーディング・ブロック高さsbHeightと、( 0, 0)に等しく設定された動きベクトル・オフセットmvOffsetと、mvCNに等しく設定された動きベクトルmvLXと、refPicLNCrに等しく設定された参照配列refPicLXCrと、FALSEに等しく設定された変数bdofFlagと、2に等しく設定された変数cIdxと、RefPicScale[ predListFlagN ][ refIdxN ]とを入力として、起動することによって導出される。
図9A及び9Bは、テーブル36を示す。
8.5.6 geoインター・ブロックの復号化プロセス
8.5.7.1 概要
このプロセスは、1に等しいMergeGeoFlag[ xCb ][ yCb ]を有するコーディング・ユニットを復号化する場合に起動される。
このプロセスへの入力は以下の通りである:
- 現在のピクチャの左上ルマ・サンプルに対する、現在のコーディング・ブロックの左上サンプルを指定するルマ位置( xCb, yCb ),
- ルマ・サンプルの現在のコーディング・ブロックの幅を指定する変数cbWidth,
- ルマ・サンプルの現在のコーディング・ブロックの高さを指定する変数cbHeigh,
- 1/16分数-サンプル精度におけるルマ動きベクトルmvA及びmvB,
- クロマ動きベクトルmvCA及びmvCB,
- 参照インデックスrefIdxA及びrefIdxB,
- 予測リスト・フラグpredListFlagA及びpredListFlagB.
このプロセスの出力は以下の通りである:
- ルマ予測サンプルの(cbWidth)x(cbHeight)の配列predSamplesL,
- 成分Cbに対するクロマ予測サンプルの(cbWidth / SubWidthC)x(cbHeight / SubHeightC)の配列predSamplesCb,
- 成分Crに対するクロマ予測サンプルの(cbWidth / SubWidthC)x(cbHeight / SubHeightC)の配列predSamplesCr.
predSamplesLALとpredSamplesLBLを、予測されたルマ・サンプル値の(cbWidth)x(cbHeight)の配列であるとし、predSamplesLACb, predSamplesLBCb, predSamplesLACr 及び predSamplesLBCrを、予測されたクロマ・サンプル値の(cbWidth / SubWidthC)x(cbHeight / SubHeightC)の配列であるとする。
predSamplesL, predSamplesCb及びpredSamplesCrは、以下の順序付けられたステップで導出される:
1. NがA及びBの各々である場合に関し、以下が適用される:
- ルマ・サンプルの順序づけられた2次元配列refPicLNLとクロマ・サンプルの2つの順序づけられた2次元配列refPicLNCb及びrefPicLNCrとで構成される参照ピクチャは、条項8.5.6.2で規定されるプロセスを、predListFlagNに等しく設定されたXとrefIdxNに等しく設定されたrefIdxXとを入力として、起動することによって導出される。
図9C及び9Dは、テーブル36の例示的な実施形態を示す。
8.5.7 geoインター・ブロックの復号化プロセス
8.5.7.1 概要
このプロセスは、1に等しいMergeGeoFlag[ xCb ][ yCb ]を有するコーディング・ユニットを復号化する場合に起動される。
このプロセスへの入力は以下の通りである:
- 現在のピクチャの左上ルマ・サンプルに対する、現在のコーディング・ブロックの左上サンプルを指定するルマ位置( xCb, yCb ),
- ルマ・サンプルの現在のコーディング・ブロックの幅を指定する変数cbWidth,
- ルマ・サンプルの現在のコーディング・ブロックの高さを指定する変数cbHeigh,
- 1/16分数-サンプル精度におけるルマ動きベクトルmvA及びmvB,
- クロマ動きベクトルmvCA及びmvCB,
- 参照インデックスrefIdxA及びrefIdxB,
- 予測リスト・フラグpredListFlagA及びpredListFlagB.
このプロセスの出力は以下の通りである:
- ルマ予測サンプルの(cbWidth)x(cbHeight)の配列predSamplesL,
- 成分Cbに対するクロマ予測サンプルの(cbWidth / SubWidthC)x(cbHeight / SubHeightC)の配列predSamplesCb,
- 成分Crに対するクロマ予測サンプルの(cbWidth / SubWidthC)x(cbHeight / SubHeightC)の配列predSamplesCr.
predSamplesLALとpredSamplesLBLを、予測されたルマ・サンプル値の(cbWidth)x(cbHeight)の配列であるとし、predSamplesLACb, predSamplesLBCb, predSamplesLACr 及び predSamplesLBCrを、予測されたクロマ・サンプル値の(cbWidth / SubWidthC)x(cbHeight / SubHeightC)の配列であるとする。
predSamplesL, predSamplesCb及びpredSamplesCrは、以下の順序付けられたステップで導出される:
1. NがA及びBの各々である場合に関し、以下が適用される:
- ルマ・サンプルの順序づけられた2次元配列refPicLNLとクロマ・サンプルの2つの順序づけられた2次元配列refPicLNCb及びrefPicLNCrとで構成される参照ピクチャは、条項8.5.6.2で規定されるプロセスを、predListFlagNに等しく設定されたXとrefIdxNに等しく設定されたrefIdxXとを入力として、起動することによって導出される。
[0048] 図9Eは、テーブルxxのこの実施形態-geo_partition_idxの値に基づくgeo_partition_idx’の値のマッピング・テーブルを示す。
8.5.7 geoインター・ブロックの復号化プロセス
8.5.7.1 概要
このプロセスは、1に等しいMergeGeoFlag[ xCb ][ yCb ]を有するコーディング・ユニットを復号化する場合に起動される。
このプロセスへの入力は以下の通りである:
- 現在のピクチャの左上ルマ・サンプルに対する、現在のコーディング・ブロックの左上サンプルを指定するルマ位置( xCb, yCb ),
- ルマ・サンプルの現在のコーディング・ブロックの幅を指定する変数cbWidth,
- ルマ・サンプルの現在のコーディング・ブロックの高さを指定する変数cbHeigh,
- 1/16分数-サンプル精度におけるルマ動きベクトルmvA及びmvB,
- クロマ動きベクトルmvCA及びmvCB,
- 参照インデックスrefIdxA及びrefIdxB,
- 予測リスト・フラグpredListFlagA及びpredListFlagB.
このプロセスの出力は以下の通りである:
- ルマ予測サンプルの(cbWidth)x(cbHeight)の配列predSamplesL,
- 成分Cbに対するクロマ予測サンプルの(cbWidth / SubWidthC)x(cbHeight / SubHeightC)の配列predSamplesCb,
- 成分Crに対するクロマ予測サンプルの(cbWidth / SubWidthC)x(cbHeight / SubHeightC)の配列predSamplesCr.
predSamplesLALとpredSamplesLBLを、予測されたルマ・サンプル値の(cbWidth)x(cbHeight)の配列であるとし、predSamplesLACb, predSamplesLBCb, predSamplesLACr 及び predSamplesLBCrを、予測されたクロマ・サンプル値の(cbWidth / SubWidthC)x(cbHeight / SubHeightC)の配列であるとする。
predSamplesL, predSamplesCb及びpredSamplesCrは、以下の順序付けられたステップで導出される:
1. NがA及びBの各々である場合に関し、以下が適用される:
- ルマ・サンプルの順序づけられた2次元配列refPicLNLとクロマ・サンプルの2つの順序づけられた2次元配列refPicLNCb及びrefPicLNCrとで構成される参照ピクチャは、条項8.5.6.2で規定されるプロセスを、predListFlagNに等しく設定されたXとrefIdxNに等しく設定されたrefIdxXとを入力として、起動することによって導出される。
ハイ・レベル・シンタックス
イントラ・スライス/ピクチャの定義について
21. イントラ(I)スライス(又はピクチャ)を、イントラ予測のみを用いて復号化されるスライスとして定義する代わりに、イントラ・スライスを、インター予測を用いることなく復号化されるスライス(又はピクチャ)として定義することを提案する。
サブピクチャ番号のシグナリングされる範囲について
23. 適合ビット・ストリームは、サブピクチャが存在する場合に、サブピクチャの数は2より小さくないものとする、ということを満足するものとする。
[0052] 図3は、ビデオ処理装置300のブロック図である。装置300は、本願で説明される1つ以上の方法を実装するために使用されてもよい。装置300は、スマートフォン、タブレット、コンピュータ、モノのインターネット(Internet of Things,IoT)受信機などで具体化されてもよい。装置300は、1つ以上のプロセッサ302、1つ以上のメモリ304、及びビデオ処理ハードウェア306を含んでもよい。プロセッサ302は、本件明細書で説明される1つ以上の方法を実装するように構成されてもよい。メモリ(memories)304は、本願で説明される方法及び技術を実装するために使用されるデータ及びコードを記憶するために使用されてもよい。ビデオ処理ハードウェア306は、ハードウェア回路において、本件明細書で説明される幾つかの技術を実装するために使用されてもよい。幾つかの実施形態では、ハードウェア306は、部分的に又は完全に、例えばグラフィックス・プロセッサのようなプロセッサ302の一部分であってもよい。
ビデオの現在のブロックと前記ビデオのコーディングされた表現との間の変換に関し、現在のブロックを含む現在のピクチャと前記変換に使用される参照ピクチャの解像度が異なることを判定するステップ(402);及び前記現在のブロックのサンプルのグループの予測された値が、水平及び垂直補間フィルタを使用して生成されるように、前記判定に基づいて前記変換を実行するステップ(404)を含む。
xInti = Clip3( xSbIntL - Dx, xSbIntL + sbWidth + Ux, xInti ),
yInti = Clip3( ySbIntL - Dy, ySbIntL + sbHeight + Uy, yInti ).
[0113] ここで、Dx及び/又はDy及び/又はUx及び/又はUyは前記現在のピクチャ又は前記参照ピクチャの前記幅及び/又は高さに依存し、( xSbIntL, ySbIntL )は前記左上座標である。
xInti = Clip3( xSbIntC - Dx, xSbIntC + sbWidth + Ux, xInti )
yInti = Clip3( ySbIntC - Dy, ySbIntC + sbHeight + Uy, yInti ).
[0115] ここで、Dx及び/又はDy及び/又はUx及び/又はUyは前記現在のピクチャ又は前記参照ピクチャの前記幅及び/又は高さに依存し、( xSbIntL, ySbIntL )は前記左上座標である。
xInti = Clip3( xSbIntL - Dx, xSbIntL + sbWidth + Ux, xInti ),
yInti = Clip3( ySbIntL - Dy, ySbIntL + sbHeight + Uy, yInti ).
[0125] ここで、Dx及び/又はDy及び/又はUx及び/又はUyは前記ピクチャ・ラッピングの使用に依存し、( xSbIntL, ySbIntL )は境界ブロックを示す。
y = Abs(diffC) > 0 ? Floor( Log2( Abs ( diffC ) ) ) + 1 : 0;
として評価されることを規定している。
y = diffC == 0 ? 0: Floor( Log2( Abs ( diffC ) ) ) + 1;
として評価されることを規定している。
y = Ceil( Log2( Abs( diffC ) + 1 ) ) );
として評価されることを規定している。
本願は、2020年10月22日付で出願された国際特許出願PCT/CN2020/122645に基づいており、同出願は、2019年10月23日付で出願された国際特許出願第PCT/CN2019/112820号、及び2019年12月30日付で出願された国際特許出願第PCT/CN2019/129959号についての優先権及び利益を主張している。前述の全ての特許出願は全体的に参照により援用される。
Claims (46)
- ビデオ処理方法であって:
ビデオの現在のビデオ・ブロックと前記ビデオのコーディングされた表現との間の変換に関し、アフィン・マージ候補の決定を、ルールに従って選択的に行うステップ;及び
前記決定に従って前記変換を実行するステップ;
を含み、前記ルールは、前記アフィン・マージ候補が、log2(X)演算を利用することなくどのように計算されるかを規定しており、Xは0以下であり;及び
前記アフィン・マージ候補は、隣接するアフィン・コーディングされたビデオ・ブロックから導出された動き候補である、方法。 - 請求項1に記載の方法において、前記ルールは、Xが0より大きい場合に、前記アフィン・マージ候補を決定することを規定している、方法。
- 請求項1に記載の方法において、前記ルールは、Xが0に等しくない場合に、前記アフィン・マージ候補を決定することを規定している、方法。
- 請求項1に記載の方法において、前記ルールは、Log2(Height/Width)を、Height及びWidthの除算を実行することなく決定することを規定しており、Heightは前記現在のビデオ・ブロックの高さであり、Widthは前記現在のビデオ・ブロックの幅である、方法。
- 請求項4に記載の方法において、前記ルールは、Log2(Height/Width)を、Log2(Height) - Log2(Width)として決定することを規定している、方法。
- 請求項1-5のうちの何れか1項に記載の方法において、前記アフィン・マージ候補は、Log2( Width ) - Log2( Height)又はLog2( Height) - Log2( Width)を計算することによって導出される、方法。
- ビデオ処理方法であって:
複数のカラー成分を含むビデオの現在のビデオ・ブロックと前記ビデオのコーディングされた表現との間の変換に関し、クロス・コンポーネント線型モデル(CCLM)の決定をルールに従って行うステップ;及び
前記決定に従って前記変換を実行するステップ;
を含み、前記ルールは、アフィン・マージ候補が、log2(X)演算を利用することなくどのように計算されるかを規定しており、Xは0以下であり;及び
前記CCLMは、クロマ・サンプルを、再構成された隣接するルマ・サンプルに基づいて、線型モデルに従って予測することを含む、方法。 - 請求項7に記載の方法において、前記Xは、前記現在のビデオ・ブロックの最大クロマ・サンプル値と最小クロマ・サンプル値との間の差分の絶対値を表し、前記ルールは、前記CCLM計算においてlog2(X)ではなく0を使用することを規定している、方法。
- 請求項7又は8に記載の方法において、前記ルールは、線型モデルの傾斜パラメータの計算に使用される変数yが:
y = Abs(diffC) > 0 ? Floor( Log2( Abs ( diffC ) ) ) + 1 : 0;
として評価されることを規定しており、diffCは、Xに等しく、且つ前記現在のビデオ・ブロックの最大クロマ・サンプル値と最小クロマ・サンプル値との間の差分を表し、Floorは床関数であり、Absは絶対値関数である、方法。 - 請求項7に記載の方法において、前記ルールは、Xが0より大きい場合に、前記CCLMを決定することを規定している、方法。
- 請求項7に記載の方法において、前記ルールは、Xが0に等しくない場合に、前記CCLMを決定することを規定している、方法。
- 請求項7、10又は11に記載の方法において、前記Xは、前記現在のビデオ・ブロックの最大クロマ・サンプル値と最小クロマ・サンプル値との間の差分を表し、前記ルールは、前記CCLM計算においてlog2(X)ではなく0を使用することを規定している、方法。
- 請求項7-9のうちの何れか1項に記載の方法において、前記ルールは、線型モデルの傾斜パラメータの計算に使用される変数yが:
y = diffC == 0 ? 0: Floor( Log2( Abs ( diffC ) ) ) + 1;
として評価されることを規定しており、diffCは、Xに等しく、且つ前記現在のビデオ・ブロックの最大クロマ・サンプル値と最小クロマ・サンプル値との間の差分を表し、Floorは床関数であり、Absは絶対値関数である、方法。 - 請求項7-9のうちの何れか1項に記載の方法において、前記ルールは、線型モデルの傾斜パラメータの計算に使用される変数yが:
y = Ceil( Log2( Abs( diffC ) + 1 ) ) );
として評価されることを規定しており、diffCは、Xに等しく、且つ前記現在のビデオ・ブロックの最大クロマ・サンプル値と最小クロマ・サンプル値との間の差分を表し、Ceilは天井関数である、方法。 - ビデオ処理方法であって:
複数のカラー成分を含むビデオのビデオ・ピクチャの現在のビデオ・ブロックと前記ビデオのコーディングされた表現との間の変換に関し、前記現在のビデオ・ブロックの角度イントラ予測をルールに従って決定するステップ;及び
前記決定に従って前記変換を実行するステップ;
を含み、前記ルールは、ゼロによる除算を回避する決定のための演算ステップを規定しており;及び
前記角度イントラ予測モードは、前記現在のビデオ・ブロックを、前記ビデオ・ピクチャ内の1つ以上のサンプルから、1つ以上の角度で予測することを含む、方法。 - 請求項15に記載の方法において、前記ルールは、予測角度がゼロであるかどうかに基づいて、変数invAngleを条件付きで計算することを規定しており、invAngleは前記現在のビデオ・ブロックの予測を決定するために使用される、方法。
- ビデオ処理方法であって:
ビデオの現在のビデオ・ブロックを複数のパーティションに、モードに従ってパーティション化するステップであって、前記モードでは少なくとも1つのパーティション化はルールに従って角度ラインに沿っている、ステップ;及び
前記現在のビデオ・ブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップであって、前記現在のビデオ・ブロックの予測は予測の重み付け平均から決定され、前記重み付け平均のためのウェイトは、前記モードにより決定される、ステップ;
を含み、前記モードが前記パーティション化の距離に対応する前記パーティション化の特性を示すこと、及び/又は前記角度ラインの角度が前記現在のビデオ・ブロックのサイズ特性、又は前記現在のビデオ・ブロックのコーディング特性に依存することを、前記ルールは規定している、方法。 - 請求項19に記載の方法において、前記ルールは、前記角度又は前記距離が、前記サイズ特性に従う一組の可能な値に属することを規定している、方法。
- 請求項19又は20に記載の方法において、前記サイズ特性は、前記現在のビデオ・ブロックが高さより大きな幅を有する場合には第1サイズ特性を、前記現在のビデオ・ブロックが幅より大きな高さを有する場合には第2サイズ特性を、又は現在のビデオ・ブロックが正方形の形状を有する場合には第3サイズ特性を有する、方法。
- 請求項19に記載の方法において、前記ルールは、前記モードを示す第1シンタックス要素が、前記現在のビデオ・ブロックに関連する第2シンタックス要素に依存して、前記コーディングされた表現に含まれることを規定している、方法。
- 請求項19に記載の方法において、前記ルールは、前記モード及び前記角度及び/又は前記距離の間のマッピングを規定している、方法。
- 請求項19-22のうちの何れか1項に記載の方法において、前記ルールは、前記モードと前記角度及び/又は前記距離に対するインデックスとの間のマッピングが、前記サイズ特性又は前記コーディング特性に従うことを規定している、方法。
- 請求項19-22のうちの何れか1項に記載の方法において、前記ルールは、前記モードと前記角度及び/又は前記距離との間のマッピングが、前記サイズ特性又は前記コーディング特性に従うことを規定している、方法。
- ビデオ処理方法であって:
1つ以上のビデオ領域を含むビデオと前記ビデオのコーディングされた表現との間の変換をルールに従って実行するステップを含み、
前記ルールは或る条件を規定しており、その条件の下ではビデオ領域は前記コーディングされた表現中のイントラ・コーディングされた領域として処理される、方法。 - 請求項26に記載の方法において、インター予測を利用することなく、前記ビデオ領域が前記コーディングされた表現から復号化できる場合には、前記ビデオ領域はイントラ・コーディングされた領域として処理されることを、前記ルールは規定している、方法。
- 請求項26に記載の方法において、前記ビデオ領域のピクチャ以外の如何なるピクチャも利用することなく、前記ビデオ領域が前記コーディングされた表現から復号化できる場合には、前記ビデオ領域はイントラ・コーディングされた領域として処理されることを、前記ルールは規定している、方法。
- 請求項26に記載の方法において、前記ルールは、前記ビデオ領域がイントラ予測の残差を利用して表現されるイントラ予測を利用して、或いは前記ビデオ領域が同じピクチャ内のサンプルを利用して表現されるイントラ・ブロック・コピー予測を利用して、或いはビデオ領域が代表サンプル値のパレットを利用して表現されるパレット予測モードを利用して、前記ビデオ領域が、コーディングされたものから復号化できる場合には、前記ビデオ領域はイントラ・コーディングされた領域として処理されることを、前記ルールは規定している、方法。
- 請求項26-29のうちの何れか1項に記載の方法において、前記ビデオ領域はビデオ・スライスに対応している、方法。
- 請求項26-29のうちの何れか1項に記載の方法において、前記ビデオ領域はビデオ・ピクチャに対応している、方法。
- ビデオ処理方法であって:
1つ以上のビデオ・ピクチャを含むビデオと前記ビデオのコーディングされた表現との間の変換を実行するステップ;
を含み、前記コーディングされた表現はフォーマット・ルールに従っており;
前記フォーマット・ルールは、サブピクチャ・シグナリングのシンタックス要素の使い方を規定している、方法。 - 請求項32に記載の方法において、前記フォーマット・ルールは、サブピクチャを有する各ビデオ・ピクチャは少なくとも2つのサブピクチャを有することを規定している、方法。
- 請求項32に記載の方法において、前記シンタックス要素は、サブピクチャ数マイナス1をシグナリングし、1ないしNの範囲内の値をとることを、前記フォーマット・ルールは規定しており、Nは整数である、方法。
- 請求項32に記載の方法において、前記シンタックス要素は、サブピクチャ数マイナス2をシグナリングし、0ないしN-1の範囲内の値をとることを、前記フォーマット・ルールは規定しており、Nは整数である、方法。
- 請求項34又は35に記載の方法において、N=254である、方法。
- 請求項32-36のうちの何れか1項に記載の方法において、サブピクチャ・シグナリングに関連する1つ以上の追加的なシンタックス要素が、前記コーディングされた表現に含まれているかどうかを決定する際に、サブピクチャ数は1より大きくないことを、前記シンタックス要素が示しているかどうかが使用される、とういことを前記フォーマット・ルールは規定している、方法。
- 請求項37に記載の方法において、前記シンタックス要素は、値(サブピクチャ数 - 1)を有する、方法。
- 請求項1-38のうちの何れか1項に記載の方法において、前記変換は、前記ビデオを、前記コーディングされた表現に符号化することを含む、方法。
- 請求項1-38のうちの何れか1項に記載の方法において、前記変換は、前記コーディングされた表現を復号化して、前記ビデオのピクセル値を生成することを含む、方法。
- 請求項1-40のうちの何れか1項に記載の方法を実行するように構成されたプロセッサを含むビデオ復号化装置。
- 請求項1-40のうちの何れか1項に記載の方法を実行するように構成されたプロセッサを含むビデオ符号化装置。
- コンピュータ・コードを記憶したコンピュータ・プログラム製品であって、前記コードは、プロセッサにより実行されると、前記プロセッサに、請求項1-40のうちの何れか1項に記載の方法を実行させる、コンピュータ・プログラム製品。
- コードを記憶したコンピュータ読み取り可能な媒体であって、前記コードは、プロセッサにより実行されると、前記プロセッサに、請求項1-40のうちの何れか1項に記載の方法を実行させる、記憶媒体。
- 請求項1-40のうちの何れか1項に記載の方法により生成されたビットストリームを記憶したコンピュータ読み取り可能な記憶媒体。
- 本件で説明された方法、装置、又はシステム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNPCT/CN2019/112820 | 2019-10-23 | ||
CN2019112820 | 2019-10-23 | ||
CN2019129959 | 2019-12-30 | ||
CNPCT/CN2019/129959 | 2019-12-30 | ||
PCT/CN2020/122645 WO2021078178A1 (en) | 2019-10-23 | 2020-10-22 | Calculation for multiple coding tools |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022553364A true JP2022553364A (ja) | 2022-12-22 |
JP7395727B2 JP7395727B2 (ja) | 2023-12-11 |
Family
ID=75619622
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022523815A Active JP7395727B2 (ja) | 2019-10-23 | 2020-10-22 | ビデオ・データを処理する方法、装置及び記憶方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11778175B2 (ja) |
EP (1) | EP4035379A4 (ja) |
JP (1) | JP7395727B2 (ja) |
KR (1) | KR20220082839A (ja) |
CN (1) | CN114600461A (ja) |
WO (1) | WO2021078178A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117319645A (zh) | 2019-08-23 | 2023-12-29 | 北京字节跳动网络技术有限公司 | 用于处理视频数据的方法、装置以及计算机可读存储介质 |
KR20220080107A (ko) | 2019-10-23 | 2022-06-14 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 참조 픽처 리샘플링을 위한 시그널링 |
JP7464742B2 (ja) * | 2020-03-21 | 2024-04-09 | 北京字節跳動網絡技術有限公司 | 参照ピクチャリサンプリング |
EP4128794A4 (en) | 2020-04-19 | 2023-12-27 | Beijing Bytedance Network Technology Co., Ltd. | RESIDUAL CODING WITH OMISSION OF TRANSFORM |
EP4154533A4 (en) | 2020-06-20 | 2023-11-01 | Beijing Bytedance Network Technology Co., Ltd. | CROSS-LAYER PREDICTION WITH DIFFERENT CODING BLOCK SIZE |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
PT2175452E (pt) | 2001-03-08 | 2013-01-29 | Sony Corp | Aparelho de gravação de dados |
GB0128888D0 (en) * | 2001-12-03 | 2002-01-23 | Imagination Tech Ltd | Method and apparatus for compressing data and decompressing compressed data |
AU2003261923C1 (en) * | 2002-11-20 | 2009-07-16 | Godo Kaisha Ip Bridge 1 | Moving image predicting method, moving image encoding method and device, and moving image decoding method and device |
US7724827B2 (en) | 2003-09-07 | 2010-05-25 | Microsoft Corporation | Multi-layer run level encoding and decoding |
CN101204092B (zh) | 2005-02-18 | 2010-11-03 | 汤姆森许可贸易公司 | 从低分辨率图像导出高分辨率图像的编码信息的方法以及实施所述方法的编码和解码设备 |
SG10202001623RA (en) | 2010-04-09 | 2020-04-29 | Mitsubishi Electric Corp | Moving image encoding device and moving image decoding device |
US20120230393A1 (en) | 2011-03-08 | 2012-09-13 | Sue Mon Thet Naing | Methods and apparatuses for encoding and decoding video using adaptive interpolation filter length |
EP2595382B1 (en) * | 2011-11-21 | 2019-01-09 | BlackBerry Limited | Methods and devices for encoding and decoding transform domain filters |
US9503720B2 (en) | 2012-03-16 | 2016-11-22 | Qualcomm Incorporated | Motion vector coding and bi-prediction in HEVC and its extensions |
US9992493B2 (en) | 2013-04-01 | 2018-06-05 | Qualcomm Incorporated | Inter-layer reference picture restriction for high level syntax-only scalable video coding |
US9509999B2 (en) | 2013-06-11 | 2016-11-29 | Qualcomm Incorporated | Inter-layer prediction types in multi-layer video coding |
US10051277B2 (en) * | 2014-11-06 | 2018-08-14 | Mediatek Inc. | Method for sub-block based palette coding |
US9699461B2 (en) * | 2015-08-14 | 2017-07-04 | Blackberry Limited | Scaling in perceptual image and video coding |
KR102267922B1 (ko) | 2015-09-23 | 2021-06-22 | 노키아 테크놀로지스 오와이 | 360도 파노라마 비디오를 코딩하는 방법, 장치 및 컴퓨터 프로그램 제품 |
EP3354028B1 (en) | 2015-09-25 | 2021-09-15 | Huawei Technologies Co., Ltd. | Apparatus and method for video motion compensation with selectable interpolation filter |
US9948930B2 (en) | 2016-05-17 | 2018-04-17 | Arris Enterprises Llc | Template matching for JVET intra prediction |
CN116156200A (zh) * | 2016-07-14 | 2023-05-23 | 三星电子株式会社 | 视频解码方法及其装置以及视频编码方法及其装置 |
US11722698B2 (en) | 2016-08-24 | 2023-08-08 | Sony Corporation | Image processing apparatus and image processing method |
US20180242016A1 (en) | 2017-02-21 | 2018-08-23 | Intel Corporation | Deblock filtering for 360 video |
CN116760978A (zh) * | 2017-07-05 | 2023-09-15 | 艾锐势有限责任公司 | 对视频编码、解码的方法和计算机可读存储器或存储装置 |
WO2019072370A1 (en) | 2017-10-09 | 2019-04-18 | Huawei Technologies Co., Ltd. | MEMORY ACCESS WINDOW AND FILLING FOR VECTOR MOVEMENT REFINEMENT |
WO2019072368A1 (en) | 2017-10-09 | 2019-04-18 | Huawei Technologies Co., Ltd. | LIMITED MEMORY ACCESS WINDOW FOR MOTION VECTOR REFINEMENT |
IL299278A (en) | 2017-12-22 | 2023-02-01 | Magic Leap Inc | Methods and system for creating and displaying 3D video in a virtual, augmented or mixed reality environment |
US20210120262A1 (en) | 2018-04-18 | 2021-04-22 | Mediatek Inc. | Candidate Reorganizing with Advanced Control in Video Coding |
EP3817381A4 (en) | 2018-06-29 | 2022-04-27 | Electronics and Telecommunications Research Institute | IMAGE DECODING/CODING APPARATUS AND METHOD FOR PROCESSING THROUGHPUT IMPROVEMENT, AND RECORDING MEDIA STORAGE OF A BITSTREAM |
US10701384B2 (en) | 2018-08-01 | 2020-06-30 | Tencent America LLC | Method and apparatus for improvement on decoder side motion derivation and refinement |
CN109874011B (zh) * | 2018-12-28 | 2020-06-09 | 杭州海康威视数字技术股份有限公司 | 编码方法、解码方法及装置 |
US20210392344A1 (en) * | 2019-01-02 | 2021-12-16 | Sharp Kabushiki Kaisha | Prediction image generation device, moving image decoding device, moving image encoding device, and prediction image generation method |
KR20240000610A (ko) | 2019-01-15 | 2024-01-02 | 로즈데일 다이나믹스 엘엘씨 | 변환 스킵 플래그를 이용한 영상 코딩 방법 및 장치 |
MX2021011016A (es) | 2019-03-11 | 2021-11-12 | Huawei Tech Co Ltd | Un codificador, un decodificador y métodos correspondientes. |
CN113632464B (zh) * | 2019-05-21 | 2023-04-28 | 华为技术有限公司 | 分量间预测的方法和设备 |
US11095916B2 (en) | 2019-07-23 | 2021-08-17 | Qualcomm Incorporated | Wraparound motion compensation in video coding |
US11375238B2 (en) | 2019-09-20 | 2022-06-28 | Tencent America LLC | Method for padding processing with sub-region partitions in video stream |
KR20220080107A (ko) | 2019-10-23 | 2022-06-14 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 참조 픽처 리샘플링을 위한 시그널링 |
-
2020
- 2020-10-22 JP JP2022523815A patent/JP7395727B2/ja active Active
- 2020-10-22 CN CN202080074432.0A patent/CN114600461A/zh active Pending
- 2020-10-22 WO PCT/CN2020/122645 patent/WO2021078178A1/en unknown
- 2020-10-22 KR KR1020227012630A patent/KR20220082839A/ko not_active Application Discontinuation
- 2020-10-22 EP EP20880299.1A patent/EP4035379A4/en active Pending
-
2022
- 2022-04-22 US US17/727,486 patent/US11778175B2/en active Active
Non-Patent Citations (6)
Title |
---|
BENJAMIN BROSS, ET AL.: ""Versatile Video Coding (Draft 2)"", DOCUMENT: JVET-K1001-V7, [ONLINE], vol. JVET-L0694 (version 4), JPN6023044877, 10 October 2018 (2018-10-10), pages 90 - 97, ISSN: 0005187118 * |
BENJAMIN BROSS, ET AL.: ""Versatile Video Coding (Draft 4)"", DOCUMENT: JVET-M1001-V7, [ONLINE], vol. JVET-M1001 (version 7), JPN6023044875, 17 March 2019 (2019-03-17), pages 116 - 127, ISSN: 0005187116 * |
BENJAMIN BROSS, ET AL.: ""Versatile Video Coding (Draft 7)"", DOCUMENT: JVET-P2001-V9, [ONLINE], vol. JVET-P2001 (version 9), JPN6023044876, 17 October 2019 (2019-10-17), pages 200 - 207, ISSN: 0005187117 * |
JANGWON CHOI, ET AL.: ""Non-CE3: CCLM prediction for 4:2:2 and 4:4:4 color format"", DOCUMENT: JVET-N0229, [ONLINE], vol. JVET-N0229 (version 1), JPN6023044874, 13 March 2019 (2019-03-13), pages 1 - 10, ISSN: 0005187115 * |
JIANLE CHEN, ET AL.: ""Algorithm Description of Joint Exploration Test Model 7 (JEM 7)"", DOCUMENT: JVET-G1001-V1, [ONLINE], vol. JVET-G1001 (version 1), JPN6023039647, 19 August 2017 (2017-08-19), pages 10 - 12, ISSN: 0005187119 * |
XIANG MA, ET AL.: ""CE3: CCLM/MDLM using simplified coefficients derivation method (Test 5.6.1, 5.6.2 and 5.6.3)"", DOCUMENT: JVET-L0340_R1, [ONLINE], vol. JVET-L0340 (version 5), JPN6022021219, 23 October 2018 (2018-10-23), pages 1 - 6, ISSN: 0005187120 * |
Also Published As
Publication number | Publication date |
---|---|
EP4035379A1 (en) | 2022-08-03 |
KR20220082839A (ko) | 2022-06-17 |
CN114600461A (zh) | 2022-06-07 |
JP7395727B2 (ja) | 2023-12-11 |
US11778175B2 (en) | 2023-10-03 |
US20220272330A1 (en) | 2022-08-25 |
EP4035379A4 (en) | 2023-03-15 |
WO2021078178A1 (en) | 2021-04-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7305873B2 (ja) | ビデオ処理方法、ビデオ・データ処理装置、記憶媒体及び記憶方法 | |
JP7414980B2 (ja) | 参照ピクチャリサンプリングと映像コーディングツールとの間の相互作用 | |
JP7391203B2 (ja) | ビデオコーディングツールを洗練する使用およびシグナリング | |
JP7395727B2 (ja) | ビデオ・データを処理する方法、装置及び記憶方法 | |
JP7391199B2 (ja) | 映像コーディングツールのレベルベースシグナリング | |
KR20220066045A (ko) | 비디오 코딩의 스케일링 윈도우 | |
JP7394985B2 (ja) | ビデオ・データを処理する方法、装置及び記憶方法 | |
KR20220061108A (ko) | 비디오 코딩에서 레퍼런스 샘플 위치 유도 | |
JP2023508427A (ja) | ビデオピクチャヘッダ内でのスライスタイプのシグナリング |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220516 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220516 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230516 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230814 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231031 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231129 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7395727 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |