JP7478225B2 - サブピクチャ復号のバッファ管理 - Google Patents

サブピクチャ復号のバッファ管理 Download PDF

Info

Publication number
JP7478225B2
JP7478225B2 JP2022508461A JP2022508461A JP7478225B2 JP 7478225 B2 JP7478225 B2 JP 7478225B2 JP 2022508461 A JP2022508461 A JP 2022508461A JP 2022508461 A JP2022508461 A JP 2022508461A JP 7478225 B2 JP7478225 B2 JP 7478225B2
Authority
JP
Japan
Prior art keywords
picture
video
sub
bitstream
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022508461A
Other languages
English (en)
Other versions
JP2022543706A (ja
Inventor
ザン,カイ
デン,ジピン
リュウ,ホンビン
ザン,リー
シュイ,ジィジォン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Original Assignee
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd, ByteDance Inc filed Critical Beijing ByteDance Network Technology Co Ltd
Publication of JP2022543706A publication Critical patent/JP2022543706A/ja
Application granted granted Critical
Publication of JP7478225B2 publication Critical patent/JP7478225B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/55Motion estimation with spatial constraints, e.g. at image or region borders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/1883Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit relating to sub-band structure, e.g. hierarchical level, directional tree, e.g. low-high [LH], high-low [HL], high-high [HH]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Signal Processing For Recording (AREA)

Description

[関連出願]
本願は、国際特許出願番号第PCT/CN2019/100114号、2019年8月10日出願の優先権及び利益を請求する国際特許出願番号第PCT/CN2020/108182号、2020年8月10日出願に基づく。前述の出願の全ての開示は、参照によりここに組み込まれる。
[技術分野]
本願明細書は、ビデオ及び画像コーディング及び復号技術に関する。
デジタルビデオは、インターネット及び他のデジタル通信ネットワーク上で最大の帯域幅使用を占める。ビデオを受信及び表示可能な接続されたユーザ装置の数が増加するにつれ、デジタルビデオ使用のための帯域幅要求は増大し続けることが予想される。
開示の技術は、サブピクチャに基づくコーディング又は復号が実行されるビデオ又は画像デコーダ又はエンコーダの実施形態により使用されてよい。
1つの例示的な態様では、ビデオ処理の方法が開示される。前記方法は、ビデオの第1ピクチャの現在ブロックと前記ビデオのビットストリーム表現との間の変換のために、ルールに従い、第2ピクチャからの動き情報に基づき、動き候補を決定するステップを含む。前記ルールは、前記動き情報がアクセスされる位置が、前記第2ピクチャの特定のサブピクチャの範囲内であるよう制約されることを指定する。前記方法は、前記決定に基づき変換を実行するステップを含む。
別の例示的な態様では、ビデオ処理の方法が開示される。前記方法は、ビデオの第1ピクチャの現在ブロックと前記ビデオのビットストリーム表現の変換のために、ルールに従い、第2ピクチャからの整数サンプルを決定するステップを含む。前記第2ピクチャは、補間処理において使用されない参照ピクチャを含む。前記ルールは、前記整数サンプルがアクセスされる位置が、前記第2ピクチャの特定のサブピクチャの範囲内であるよう制約されることを指定する。前記方法は、前記決定に基づき変換を実行するステップを含む。
別の例示的な態様では、ビデオ処理の方法が開示される。前記方法は、ビデオの現在ブロックと前記ビデオのビットストリーム表現の変換のために、ルールに従い、再構成ルマサンプルがアクセスされる位置を決定するステップを含む。前記ルールは、前記位置が、前記ビデオピクチャの特定のサブピクチャの範囲内であるよう制約されることを指定する。前記方法は、前記決定に基づき変換を実行するステップを含む。
別の例示的な態様では、ビデオ処理の方法が開示される。前記方法は、ビデオの現在ブロックと前記ビデオのビットストリーム表現の変換のために、ルールに従い、ピクチャ境界チェックが実行される位置を決定するステップを含む。前記ルールは、前記位置が、前記ビデオピクチャの特定のサブピクチャの範囲内であるよう制約されることを指定する。前記方法は、前記決定に基づき変換を実行するステップを含む。
別の例示的な態様では、ビデオ処理の方法が開示される。前記方法は、ビデオのビデオピクチャのサブピクチャと前記ビデオのビットストリーム表現の変換の後に、過去の変換に基づき導出された動き候補のテーブルを再設定するステップと、前記再設定の後の前記テーブルを用いて、前記ビデオピクチャの後続のサブピクチャと前記ビットストリーム表現の変換を実行するステップと、を含む。
別の例示的な態様では、ビデオ処理の方法が開示される。前記方法は、ルールに従い、複数のサブピクチャ及び複数のビデオブロックを含むビデオピクチャを有するビデオと、前記ビデオのコーディング表現との間の変換を実行するステップを含む。前記ルールは、任意の2つのサブピクチャが、2つのビデオブロックの間の境界でもあることを指定する。前記ビデオピクチャ内のビデオブロックは、前記ビデオピクチャの単一のサブピクチャによりカバーされる。
別の例示的な態様では、ビデオ処理の方法が開示される。前記方法は、少なくともビデオピクチャを用いて、ビデオのビデオユニットと前記ビデオのコーディング表現との間の変換を実行するステップを含み、サブピクチャコーディングモード又は解像度変化コーディングモードのうちの1つのみが、前記ビデオユニットに対して有効である。前記サブピクチャコーディングモードは、前記ビデオピクチャが複数のサブピクチャに分割されるモードであり、前記解像度変化コーディングモードは、前記ビデオピクチャの解像度が前記変換中に調整されるモードである。
別の例示的な態様では、ビデオ処理の方法が開示される。前記方法は、少なくともビデオピクチャを用いて、ビデオのビデオユニットと前記ビデオのコーディング表現との間の変換を実行するステップを含み、サブピクチャコーディングモード及び解像度変化コーディングモードの両方が、前記ビデオユニットに対して有効である。前記サブピクチャコーディングモードは、前記ビデオピクチャが複数のサブピクチャに分割されるモードであり、前記解像度変化コーディングモードは、前記ビデオピクチャの解像度が前記変換中に調整されるモードである。
別の例示的な態様では、ビデオ処理の方法が開示される。前記方法は、1つ以上のビデオピクチャを含むビデオと前記ビデオのコーディング表現との間の変換を実行するステップ、を含み、個々のビデオピクチャの寸法は、8以上になるよう制約される。幾つかの実施形態では、前記寸法は前記個々のビデオピクチャの幅である。
別の例示的な態様では、ビデオ処理の方法が開示される。前記方法は、ルールに従い、ビデオのビデオピクチャと前記ビデオのコーディング表現との間の変換を実行するステップを含む。前記ビデオピクチャは少なくとも1つのサブピクチャを含み、前記ルールは、サブピクチャの特性が前記コーディング表現の中の少なくとも1つのシンタックスエレメントとして表現されることを指定し、前記少なくとも1つのシンタックスエレメントは、前記ビデオピクチャ内のサブピクチャグリッドのインデックス値と異なる。
別の例示的な態様では、ビデオ処理の方法が開示される。前記方法は、ルールに従い、ビデオのビデオユニットと前記ビデオのコーディング表現との間の変換を実行するステップを含む。前記ビデオピクチャは複数のサブピクチャを含み、各サブピクチャは複数のエレメントを含む。前記ルールは、サブピクチャ内の個々のエレメントの寸法が制約を満たすことを指定する。
別の例示的な態様では、ビデオ処理の方法が開示される。前記方法は、ルールに従い、コーディングモードを用いて、複数のサブピクチャを含むピクチャを有するビデオと、前記ビデオのコーディング表現との間の変換を実行するステップを含む。前記ルールは、前のサブピクチャに関する特定の格納された情報が、前記複数のサブピクチャのうちの各々の次のサブピクチャを処理する前に、再設定されることを指定する。
別の例示的な態様では、ビデオ処理の方法が開示される。前記方法は、ルールに従い、ビデオと前記ビデオのコーディング表現との間の変換において、時間フィルタリング動作を実行するステップを含む。前記ビデオは複数のビデオピクチャを含み、各ビデオピクチャは複数のサブピクチャを含む。前記ルールは、ビデオピクチャの現在サブピクチャ内の現在サンプルを時間フィルタリングするために、同じ現在サブピクチャ又は現在サブピクチャに対応する異なるビデオピクチャ内のサブピクチャの範囲内のサンプルのみが利用可能であることを指定する。
別の例示的な態様では、ビデオ処理の方法が開示される。前記方法は、ビデオのビデオピクチャ内のブロックと前記ビデオのコーディング表現との間の変換のために、前記ブロックが前記ビデオピクチャの1つ以上のサブピクチャ境界と交差するかどうかに基づき、前記ブロックにパーティション方法を適用する方法を決定するステップを含む。前記方法は、前記決定に基づき変換を実行するステップを含む。
別の例示的な態様では、ビデオ処理の方法が開示される。前記方法は、ビデオのビデオピクチャと前記ビデオのコーディング表現との間の変換のために、前記ビデオピクチャのうちの2つのサブ領域を含む。第1サブ領域は、前記ビデオピクチャの複数のサブピクチャを含み、第2サブ領域は、前記ビデオピクチャ内のサンプルを維持することを含む。前記方法は、前記決定に基づき変換を実行するステップを含む。
別の例示的な態様では、ビデオ処理の方法が開示される。前記方法は、ビデオの第1ビデオ領域内のビデオブロックについて、アフィンモードを用いて前記ビデオブロックと現在ビデオブロックのビットストリーム表現との間の変換のために時間動きベクトル予測子が決定される位置が、第2ビデオ領域の範囲内であるかどうかを決定するステップと、前記決定に基づき前記変換を実行するステップと、を含む。
別の例示的な態様では、ビデオ処理の別の方法が開示される。前記方法は、ビデオの第1ビデオ領域内のビデオブロックについて、前記ビデオブロックと現在ビデオブロックのビットストリーム表現との間の変換のために参照ピクチャ内の整数サンプルがフェッチされる位置が、第2ビデオ領域の範囲内であるかどうかを決定するステップであって、前記参照ピクチャは前記変換中に補間処理において使用されない、ステップと、前記決定に基づき前記変換を実行するステップと、を含む。
別の例示的な態様では、ビデオ処理の別の方法が開示される。前記方法は、ビデオの第1ビデオ領域内のビデオブロックについて、前記ビデオブロックと現在ビデオブロックのビットストリーム表現との間の変換のために再構成ルマサンプル値がフェッチされる位置が、第2ビデオ領域の範囲内であるかどうかを決定するステップと、前記決定に基づき前記変換を実行するステップと、を含む。
別の例示的な態様では、ビデオ処理の別の方法が開示される。前記方法は、ビデオの第1ビデオ領域内のビデオブロックについて、前記ビデオブロックと前記現在ビデオブロックのビットストリーム表現との間の変換中に、前記ビデオブロックについて分割に関するチェック、深さ導出、又は分割フラグシグナリングが実行される位置が、第2ビデオ領域の範囲内であるかどうかを決定するステップと、前記決定に基づき前記変換を実行するステップと、を含む。
別の例示的な態様では、ビデオ処理の別の方法が開示される。前記方法は、1つ以上のビデオブロックを含む1つ以上のビデオピクチャを含むビデオと、前記ビデオのコーディング表現との間の変換を実行するステップを含み、前記コーディング表現は、前記変換がサブピクチャコーディング/復号、及び動的解像度変換コーディング/復号ツール又は参照ピクチャ再サンプリングツールをビデオユニット内で使用しないというコーディングシンタックス要件に従う。
別の例示的な態様では、ビデオ処理の別の方法が開示される。前記方法は、1つ以上のビデオブロックを含む1つ以上のビデオピクチャを含むビデオと、前記ビデオのコーディング表現との間の変換を実行するステップを含み、前記コーディング表現は、第1シンタックスエレメントsubpic_grid_idx[i][j]が第2シンタックスエレメントmax_subpics_minus1より大きくないというコーディングシンタックス要件に従う。
更に別の例示的な態様では、上述の方法は、プロセッサを含むビデオエンコーダ機器により実施されてよい。
更に別の例示的な態様では、上述の方法は、プロセッサを含むビデオデコーダ機器により実施されてよい。
更に別の例示的な態様では、これらの方法は、プロセッサ実行可能命令の形式で具現命令され、コンピュータ可読プログラム媒体に格納されてよい。
これら及び他の態様は、本願明細書において更に記載される。
時間動きベクトル予測(TMVP)及びサブブロックTMVPにおける領域制約の例を示す。
階層的動き推定方式の例を示す。
本願明細書に記載される技術を実施するために使用されるハードウェアプラットフォームの例のブロック図である。
ビデオ処理の例示的な方法のフローチャートである。
本願明細書に開示される種々の技術が実施され得る例示的なビデオ処理システムを示すブロック図である。
本発明の技術によるビデオ処理の方法のフローチャート表現である。
本発明の技術によるビデオ処理の別の方法のフローチャート表現である。
本発明の技術によるビデオ処理の別の方法のフローチャート表現である。
本発明の技術によるビデオ処理の別の方法のフローチャート表現である。
本発明の技術によるビデオ処理の別の方法のフローチャート表現である。
本発明の技術によるビデオ処理の別の方法のフローチャート表現である。
本発明の技術によるビデオ処理の別の方法のフローチャート表現である。
本発明の技術によるビデオ処理の別の方法のフローチャート表現である。
本発明の技術によるビデオ処理の別の方法のフローチャート表現である。
本発明の技術によるビデオ処理の別の方法のフローチャート表現である。
本発明の技術によるビデオ処理の別の方法のフローチャート表現である。
本発明の技術によるビデオ処理の別の方法のフローチャート表現である。
本発明の技術によるビデオ処理の別の方法のフローチャート表現である。
本発明の技術によるビデオ処理の別の方法のフローチャート表現である。
本発明の技術によるビデオ処理の別の方法のフローチャート表現である。
本願明細書は、伸長又は復号デジタルビデオ又は画像の品質を向上するために画像又はビデオビットストリームのデコーダにより使用できる種々の技術を提供する。簡単のために、用語「ビデオ」は、本願明細書で、ピクチャのシーケンス(伝統的にビデオと呼ばれる)及び個々の画像の両方を含むために使用される。更に、ビデオエンコーダも、更なる符号化のために使用される復号フレームを再構成するために、符号化の処理の間に、これらの技術を実施してよい。
章見出しは、本願明細書において理解を容易にするために使用され、実施形態及び技術を対応する章に限定するものではない。従って、1つの章からの実施形態は、他の章からの実施形態と結合できる。
1.概要
本願明細書は、ビデオコーディング技術に関する。具体的に、ビデオコーディングにおける下地色(base colors)に基づく表現を利用するパレットコーディングに関する。それは、HEVCのような既存のビデオコーディング規格、又は完成されるべき規格(Versatile Video Coding)に適用されてよい。それは、将来のビデオコーディング規格又はビデオコーデックにも適用可能であってよい。
2.最初の議論
ビデオコーディング規格は、主によく知られたITU-T及びISO/IEC規格の発展を通じて進化している。ITU-TはH.261及びH.263を策定し、ISO/IECはMPEG-1及びMPEG-4ビジュアルを策定し、及び2つの組織は共同でH.262/MPEG-2ビデオ、及びH.264/MPEG-4アドバンストビデオコーディング(Advanced Video Coding)及びH.265/HEVC規格を策定した[1,2]。H.262以降、ビデオコーディング規格は、ハイブリッドビデオコーディング構造に基づき、ここでは時間予測及び変換コーディングが利用される。HEVCより先の将来のコーディング技術を開発するために、共同ビデオ探索チーム(Joint Video Exploration Team (JVET))が2015年にVCEG及びMPEGにより共同で設立された。それ以来、多くの新しい方法がJVETにより採用され、共同探索モデル(Joint Exploration Model (JEM))と呼ばれる参照ソフトウェアに取り入れられてきた。2018年4月には、HEVCと比べて50%のビットレート削減を目標とするVVC規格に取り組むために、VCEG(Q6/16)とISO/IEC JTC1 SC29/WG11(MPEG)との間の共同ビデオ専門家チーム(Joint Video Expert Team (JVET))が作成された。
2.1 TMVP及びVVCのサブブロックTMVPにおける領域制約
図1は、TMVP及びサブブロックTMVPにおける例示的な領域制約を示す。TMVP及びサブブロックTMVPでは、時間MVは、図1に示されるように、同一位置CTU、及び4×4ブロックの列からのみフェッチできる。
2.2 例示的なサブピクチャ
幾つかの実施形態では、フレキシブルタイリングアプローチに基づく、サブピクチャに基づくコーディング技術が実施できる。サブピクチャに基づくコーディング技術の要約は、以下を含む:
(1)ピクチャは、サブピクチャに分割できる。
(2)サブピクチャの存在の指示は、サブピクチャの他のシーケンスレベル情報と一緒に、SPS内で示される。
(3)サブピクチャが復号処理(インループフィルタリング動作を除く)においてピクチャとして扱われるかどうかは、ビットストリームにより制御できる。
(4)サブピクチャ境界に跨がるインループフィルタリングが無効にされるかどうかはサブピクチャ毎にビットストリームにより制御できる。DBF、SAO、及びALF処理は、サブピクチャ境界に跨がるインループフィルタリング動作の制御のために更新される。
(5)簡単のために、開始点として、サブピクチャ幅、高さ、水平オフセット、及び垂直オフセットが、SPS内のルマサンプルのユニットの中でシグナリングされる。サブピクチャ境界は、スライス境界になるよう制約される。
(6)復号処理(インループフィルタリング動作を除く)においてサブピクチャをピクチャとして扱うことは、coding_tree_unit()シンタックスを僅かに更新することにより指定され、以下の復号処理を更新する:
-(高度)時間ルマ動きベクトル予測の導出処理。
-ルマサンプル双線形補間処理。
-ルマサンプル8タップ補間フィルタリング処理。
-クロマサンプル補間処理。
(7)サブピクチャIDは、VCL NALユニットを変更する必要を伴わずにサブピクチャシーケンスの抽出を可能にするために、SPS内で明示的に指定され、タイルグループヘッダに含まれる。
(8)出力サブピクチャセット(Output sub-picture sets (OSPS))は、サブピクチャ及びそのセットについて、基準となる抽出及び適合点を指定するために提案される。
2.3 VVC(Versatile Video Coding)における例示的なサブピクチャ
シーケンスパラメータセット(sequence parameter set (RBSP))シンタックス
Figure 0007478225000001
subpics_present_flagが1に等しいことは、SPS RBSPシンタックス内にサブピクチャパラメータが存在することを示す。subpics_present_flagが0に等しいことは、SPS RBSPシンタックス内にサブピクチャパラメータが存在しないことを示す。
注2:ビットストリームがサブビットストリーム抽出処理の結果であり、サブビットストリーム抽出処理への入力ビットストリームのサブピクチャの一部のみを含むとき、SPSのRBSP内のsubpics_present_flagの値を1に等しく設定することが要求され得る。
max_subpics_minus1に1を加えたものは、CVS内に存在し得るサブピクチャの最大数を指定する。max_subpics_minus1は、0~254の範囲内であるべきである。255の値は、ITU-T|ISO/IECによる将来の使用のために予約されている。
subpic_grid_col_width_minus1に1を加えたものは、4個のサンプルのユニット内のサブピクチャ識別子の各要素の幅を指定する。シンタックスエレメントの長さは、Ceil(Log2(pic_width_max_in_luma_samples/4))ビットである。
変数NumSubPicGridColsは、以下のように導出される。
Figure 0007478225000002
subpic_grid_row_height_minus1に1を加えたものは、4個のサンプルのユニット内のサブピクチャ識別子の各要素の高さを指定する。シンタックスエレメントの長さは、Ceil(Log2(pic_height_max_in_luma_samples/4))ビットである。
変数NumSubPicGridRowsは、以下のように導出される。
Figure 0007478225000003
subpic_grid_idx[i][j]は、グリッド位置(i,j)のサブピクチャインデックスを指定する。シンタックスエレメントの長さは、Ceil(Log2(max_subpics_minus1+1))ビットである。
変数SubPicTop[subpic_grid_idx[i][j]]、SubPicLeft[subpic_grid_idx[i][j]、SubPicWidth[subpic_grid_idx[i][j]]、SubPicHeight[subpic_grid_idx[i][j]]、及びNumSubPicsは、以下のように導出される:
Figure 0007478225000004
subpic_treated_as_pic_flag[i]が1に等しいことは、CVS内の各コーディングピクチャのi番目のサブピクチャが、インループフィルタリング動作を除く復号処理でピクチャとして扱われることを指定する。subpic_treated_as_pic_flag[i]が0に等しいことは、CVS内の各コーディングピクチャのi番目のサブピクチャが、インループフィルタリング動作を除く復号処理でピクチャとして扱われないことを指定する。存在しないとき、subpic_treated_as_pic_flag[i]の値は0に等しいと推定される。
loop_filter_across_subpic_enabled_flag[i]が1に等しいことは、CVS内の各コーディングピクチャ内のi番目のサブピクチャの境界に渡り、インループフィルタリング動作が実行されてよいことを指定する。loop_filter_across_subpic_enabled_flag[i]が0に等しいことは、CVS内の各コーディングピクチャ内のi番目のサブピクチャの境界に渡り、インループフィルタリング動作が実行されないことを指定する。存在しないとき、vloop_filter_across_subpic_enabled_pic_flag[i]の値は1に等しいと推定される。
ビットストリーム適合の要件は、以下の制約を適用することである:
任意の2つのサブピクチャsubpicA及びsubpicBについて、subpicAのインデックスがsubpicBのインデックスより小さいとき、subpicAの任意のコーディングNALユニットは、復号順序で、subpicBの任意のコーディングNALユニットの後に続くべきである。
サブピクチャの形状は、各サブピクチャが、復号されるとき、ピクチャ境界を構成する又は前に復号されたサブピクチャの境界を構成する、その左境界全体及び上境界全体を有するべきである。
両端を含む0~PicSizeInCtbsY-1の範囲のctbAddrRsのリストCtbToSubPicIdx[ctbAddrRs]は、ピクチャラスタスキャンにおけるCTBからサブピクチャインデックスへの変換を指定し、以下のように導出される:
Figure 0007478225000005
num_bricks_in_slice_minus1は、存在するとき、スライス内のブリック数-1を指定する。num_bricks_in_slice_minus1の値は、両端を含む0~NumBricksInPic-1の範囲内であるべきである。rect_slice_flagが0に等しく、single_brick_per_slice_flagが1に等しいとき、num_bricks_in_slice_minus1の値は0に等しいと推定される。single_brick_per_slice_flagが1に等しいとき、num_bricks_in_slice_minus1の値は0に等しいと推定される。
現在スライス内のブリックの数を指定する変数NNumBricksInCurrSlice、及び現在スライス内のi番目のブリックのブリックインデックスを指定するSliceBrickIdx[i]は、以下のように導出されてよい:
Figure 0007478225000006
変数SubPicIdx、SubPicLeftBoundaryPos、SubPicTopBoundaryPos、SubPicRightBoundaryPos、及びSubPicBotBoundaryPosは、以下のように導出される:
Figure 0007478225000007
時間ルマ動きベクトル予測の導出処理
この処理への入力は:
-現在ピクチャの左上ルマサンプルに対する、現在ルマコーディングブロックの左上サンプルのルマ位置(xCb,yCb)、
-ルマサンプルの中で現在コーディングブロックの幅を指定する変数cbWidth、
-ルマサンプルの中で現在コーディングブロックの高さを指定する変cbHeight、
-参照インデックスrefIdxLX、Xは0又は1である。
この処理の出力は:
-1/16分数サンプル精度の動きベクトル予測mvLXCol、
-利用可能性フラグavailableFlagLXCol。
変数currCbは、ルマ位置(xCb,yCb)にある現在ルマコーディングブロックを指定する。
変数mvLXCol及びavailableFlagLXColは、以下のように導出される:
-slice_temporal_mvp_enabled_flagが0に等しいか、又は(cbWidth*cbHeight)が32以下である場合、mvLXColの両方の成分は0に等しく設定され、availableFlagLXColは0に等しく設定される。
-その他の場合(slice_temporal_mvp_enabled_flagが1に等しい)、以下の順序付きステップが適用される:
1.右下同一位置動きベクトル、並びに下及び右境界サンプル位置は、以下のように導出される:
Figure 0007478225000008
-yCb>>CtbLog2SizeYがyColBr>>CtbLog2SizeYと等しい場合、yColBrはbotBoundaryPos以下であり、xColBrはrightBoundaryPos以下であり、以下が適用される:
・変数colCbは、ColPicにより指定される同一位置ピクチャの内側の、((xColBr>>3)<<3,(yColBr>>3)<<3)により与えられる変更位置をカバーするルマコーディングブロックを指定する。
・ルマ位置(xColCb,yColCb)は、ColPicにより指定される同一位置ピクチャの左上ルマサンプルに対する、colCbにより指定される同一位置ルマコーディングブロックの左上サンプルに等しく設定される。
・8.5.2.12項に指定される同一位置動きベクトルの導出処理は、currCb、colCb、(xColCb,yColCb)、refIdxLX、及び0に等しく設定されたsbFlagを入力として呼び出され、出力はmvLXCol及びavailableFlagLXColに割り当てられる。
その他の場合、mvLXColの両方のコンポーネントは0に等しく設定され、availableFlagLXColは0に等しく設定される。

ルマサンプル双線形補間処理
この処理への入力は:
-フルサンプルユニット内のルマ位置(xIntL,yIntL)、
-分数サンプルユニット内のルマ位置(xFracL,yFracL)、
-ルマ参照サンプルアレイrefPicLXL
この処理の出力は、予測ルマサンプル値predSampleLXLである。
変数shift1、shift2、shift3、shift4、offset1、offset2、及びoffset3は、以下のように導出される:
Figure 0007478225000009
変数picWは、pic_width_in_luma_samplesに等しく設定され、変数picHはpic_height_in_luma_samplesに等しく設定される。
xFracL又はyFracLに等しい1/16分数サンプル位置p毎のルマ補間フィルタ係数fbL[p]は、表8-10で指定される。
フルサンプルユニットのルマ位置(xInti,yInti)は、i=0..1について以下のように導出される:
-subpic_treated_as_pic_flag[SubPicIdx]が1に等しい場合、以下が適用される。
Figure 0007478225000010
-その他の場合(subpic_treated_as_pic_flag[SubPicIdx]が0に等しい)、以下が適用される:
Figure 0007478225000011
サブブロックに基づく時間マージ候補の導出処理
この処理への入力は:
-現在ピクチャの左上ルマサンプルに対する、現在ルマコーディングブロックの左上サンプルのルマ位置(xCb,yCb)、
-ルマサンプルの中で現在コーディングブロックの幅を指定する変数cbWidth、
-ルマサンプルの中で現在コーディングブロックの高さを指定する変数cbHeight、
-近隣コーディングユニットの利用可能性フラグavailableFlagA
-近隣コーディングユニットの参照インデックスrefIdxLXA、Xは0又は1、
-近隣コーディングユニットの予測リスト利用フラグpredFlagLXA、Xは0又は1、
-近隣コーディングユニットの1/16分数サンプル精度の動きベクトルmvLXA、Xは0又は1。
この処理の出力は:
-利用可能性フラグavailableFlagSbCol、
-水平方向のルマコーディングサブブロックの数numSbX、及び垂直方向のnumSbY、
-参照インデックスrefIdxL0SbCol及びrefIdxL1SbCol、
-1/16分数サンプル精度のルマ動きベクトルmvL0SbCol[xSbIdx][ySbIdx]及びmvL1SbCol[xSbIdx][ySbIdx]、xSbIdx=0..numSbX-1,ySbIdx=0..numSbY-1、
-予測リスト利用フラグpredFlagL0SbCol[xSbIdx][ySbIdx]及びpredFlagL1SbCol[xSbIdx][ySbIdx]、xSbIdx=0..numSbX-1,ySbIdx=0..numSbY-1。
利用可能性フラグavailableFlagSbColは以下のように導出される。
-以下の条件のうちの1つ以上が真である場合、availableFlagSbColが0に等しく設定される。
・-slice_temporal_mvp_enabled_flagが0に等しい。
・sps_sbtmvp_enabled_flagが0に等しい。
・cbWidthが8未満である。
・cbHeightが8未満である。
-その他の場合、以下の順序付きステップが適用される:
1.現在コーディングブロックを含むルマコーディングツリーブロックの左上サンプルの位置(xCtb,yCtb)及び現在ルマコーディングブロックの右下中央の位置(xCtr,yCtr)が以下のように導出される:
Figure 0007478225000012
2.ルマ位置(xColCtrCb,yColCtrCb)は、ColPicにより指定される同一位置ピクチャの左上ルマサンプルに対する、ColPicの内側の(xCtr,yCtr)により与えられる位置をカバーする同一位置ルマコーディングブロックの左上サンプルに等しく設定される。
3.8.5.5.4項で指定されるようなサブブロックに基づく時間マージ基本動きデータの導出処理は、位置(xCtb,yCtb)、位置(xColCtrCb,yColCtrCb)、利用可能性フラグavailableFlagA及び予測リスト利用フラグpredFlagLXA、並びに参照インデックスrefIdxLXA、及び動きベクトルvectormvLXA、Xは0又は1、を入力として呼び出され、同一位置ブロックの動きベクトルctrMvLX及び予測リスト利用フラグctrPredFlagLX、Xは0又は1、及び時間動きベクトルtempMvを出力とする。
4.変数availableFlagSbColは、以下のように導出される:
-ctrPredFlagL0及びctrPredFlagL1の両方が0に等しい場合、availableFlagSbColは0に等しく設定される。
-その他の場合、availableFlagSbColが1に等しく設定される。
availableFlagSbColが1に等しいとき、以下が適用される:
-変数numSbX,、numSbY、sbWidth、sbHeight及びrefIdxLXSbColは、以下のように導出される:
Figure 0007478225000013
-xSbIdx=0..numSbX-1及びySbIdx=0..numSbY-1について、動きベクトルmvLXSbCol[xSbIdx][ySbIdx]及び予測リスト利用フラグpredFlagLXSbCol[xSbIdx][ySbIdx]は、以下のように導出される:
・現在ピクチャの左上ルマサンプルに対する、現在コーディングサブブロックの左上サンプルを指定するルマ位置(xSb,ySb)は、以下のように導出される:
Figure 0007478225000014
・ColPic内の同一位置サブブロックの位置(xColSb,yColSb)は以下のように導出される:
・以下が適用される:
Figure 0007478225000015
・subpic_treated_as_pic_flag[SubPicIdx]が1に等しい場合、以下が適用される:
Figure 0007478225000016
・その他の場合(subpic_treated_as_pic_flag[SubPicIdx]が0に等しい)、以下が適用される:
Figure 0007478225000017
サブブロックに基づく時間マージベース動きデータの導出処理
この処理への入力は:
-現在コーディングブロックを含むルマコーディングツリーブロックの左上サンプルの位置(xCtb,yCtb)、
-右下中央サンプルをカバーする同一位置ルマコーディングブロックの左上サンプルの位置(xColCtrCb,yColCtrCb)、
-近隣コーディングユニットの利用可能性フラグavailableFlagA
-近隣コーディングユニットの参照インデックスrefIdxLXA
-近隣コーディングユニットの予測リスト利用フラグpredFlagLXA
-近隣コーディングユニットの1/16分数サンプル精度の動きベクトルmvLXA
この処理の出力は:
-動きベクトルctrMvL0及びctrMvL1、
-予測リスト利用フラグctrPredFlagL0及びctrPredFlagL1、
-時間動きベクトルtempMv。
変数tempMvは、以下のように設定される:
Figure 0007478225000018
変数currPicは、現在ピクチャを指定する。
availableFlagAがTRUEに等しいとき、以下が適用される:
-以下の条件のうちの全部が真である場合、tempMvはmvL0Aに等しく設定される:
・predFlagL0Aが1に等しい、
・DiffPicOrderCnt(ColPic,RefPicList[0][refIdxL0A])が0に等しい、
-その他の場合、以下の条件のうちの全部が真である場合、tempMvはmvL1Aに等しく設定される:
・slice_typeがBにひとs、
・predFlagL1Aが1に等しい、
・DiffPicOrderCnt(ColPic,RefPicList[1][refIdxL1A])が0に等しい。
ColPic内の同一位置ブロックの位置(xColCb,yColCb)は以下のように導出される:
-以下が適用される:
Figure 0007478225000019
-subpic_treated_as_pic_flag[SubPicIdx]が1に等しい場合、以下が適用される:
Figure 0007478225000020
-その他の場合(subpic_treated_as_pic_flag[SubPicIdx]が0に等しい)、以下が適用される:
Figure 0007478225000021
ルマサンプル補間フィルタリング処理
この処理への入力は:
-フルサンプルユニットのルマ位置(xIntL,yIntL)、
-分数サンプルユニットのルマ位置(xFracL,yFracL)、
-参照ピクチャの左上ルマサンプルに対する、参照サンプルパディングのための結合(bounding)ブロックの左上サンプルを指定するフルサンプルユニットのルマ位置(xSbIntL,ySbIntL)、
-ルマ参照サンプルアレイrefPicLXL
-ハーフサンプル補間フィルタインデックスhpelIfIdx、
-現在サブブロックの幅を指定する変数sbWidth、
-現在サブブロックの高を指定する変数sbHeight、
-現在ピクチャの左上ルマサンプルに対する、現在サブブロックの左上サンプルを指定するルマ位置(xSb,ySb)、
この処理の出力は、予測ルマサンプル値predSampleLXLである。
変数shift1、shift2及びshift3は、以下のように導出される:
-変数shift1はMin(4,BitDepthY-8)に等しく設定され、変数shift2は6に等しく設定され、変数shift3はMax(2,14-BitDepthY)に等しく設定される。
-変数picWは、pic_width_in_luma_samplesに等しく設定され、変数picHはpic_height_in_luma_samplesに等しく設定される。
xFracL又はyFracLに等しい1/16分数サンプル位置p毎のルマ補間フィルタ係数fL[p]は、以下のように導出される:
-MotionModelIdc[xSb][ySb]が0より大きく、sbWidth及びsbHeightが両方とも4に等しい場合、ルマ補間フィルタ係数fL[p]は表8-12に指定される。
-その他の場合、ルマ補間フィルタ係数fL[p]は、hpelIfIdxに依存して表8-11に指定される。
フルサンプルユニットのルマ位置(xInti,yInti)は、i=0..7について以下のように導出される:
-subpic_treated_as_pic_flag[SubPicIdx]が1に等しい場合、以下が適用される:
Figure 0007478225000022
-その他の場合(subpic_treated_as_pic_flag[SubPicIdx]が0に等しい)、以下が適用される:
Figure 0007478225000023
クロマサンプル補間処理
この処理への入力は:
-フルサンプルユニットのクロマ位置(xIntC,yIntC)、
-1/32分数サンプルユニットのクロマ位置(xFracC,yFracC)、
-参照ピクチャの左上クロマサンプルに対する、参照サンプルパディングのための結合(bounding)ブロックの左上サンプルを指定するフルサンプルユニットのクロマ位置(xSbIntC,ySbIntC)、
-現在サブブロックの幅を指定する変数sbWidth、
-現在サブブロックの高を指定する変数sbHeight、
-クロマ参照サンプルアレイrefPicLXC
この処理の出力は、予測クロマサンプル値predSampleLXCである。
変数shift1、shift2及びshift3は、以下のように導出される:
-変数shift1はMin(4,BitDepthC-8)に等しく設定され、変数shift2は6に等しく設定され、変数shift3はMax(2,14-BitDepthC)に等しく設定される。
-変数picWCは、pic_width_in_luma_samples/SubWidthCに等しく設定され、変数picHCはpic_height_in_luma_samples/SubHeightCに等しく設定される。
xFracC又はyFracCに等しい1/32分数サンプル位置p毎のクロマ補間フィルタ係数fC[p]は、表8-13で指定される。
変数xOffsetは、(sps_ref_wraparound_offset_minus1+1)*MinCbSizeY)/SubWidthCに等しく設定される。
フルサンプルユニットのクロマ位置(xInti,yInti)は、i=0..3について以下のように導出される:
-subpic_treated_as_pic_flag[SubPicIdx]が1に等しい場合、以下が適用される。
Figure 0007478225000024
-その他の場合(subpic_treated_as_pic_flag[SubPicIdx]が0に等しい)、以下が適用される:
Figure 0007478225000025
2.4 例示的なエンコーダのみのGOPに基づく時間フィルタ
幾つかの実施形態では、エンコーダのみの時間フィルタが実装できる。フィルタリングは、エンコーダ側で、前処理ステップとして行われる。符号化するために選択されたピクチャの前後のソースピクチャが読み出され、選択されたピクチャに対するブロックに基づく動き補償方法が、それらのソースピクチャに適用される。選択されたピクチャ内のサンプルは、動き補償後のサンプル値を用いて、時間フィルタされる。
全体的なフィルタ強度は、QPと共に選択されたピクチャの時間サブレイヤに依存して設定される。時間サブレイヤ0及び1にあるピクチャのみがフィルタリングされ、レイヤ0のピクチャは、レイヤ1のピクチャより強力なフィルタによりフィルタリングされる。サンプル毎フィルタ強度は、選択されたピクチャ内のサンプル値と動き補償済みピクチャ内の同一位置サンプルとの間の差に依存して調整され、その結果、動き補償済みピクチャと選択されたピクチャとの間の小さな差は、大きな差よりも強力にフィルタリングされる。
GOPに基づく時間フィルタ
時間フィルタは、ピクチャを読み出した後、及び符号化前に直接導入される。以下は、より詳細に説明されるステップである。
動作1:ピクチャがエンコーダにより読み出される。
動作2:ピクチャがコーディング階層構造の中で十分に低い場合、符号化前にフィルタリングされる。その他の場合、ピクチャは、フィルタリングしないで符号化される。POC%8==0を有するRAピクチャは、POC%4==0を有するLDピクチャと同様にフィルタリングされる。AIピクチャはフィルタリングされない。
全体のフィルタ強度soは、RAについて次式に従い設定される。
Figure 0007478225000026
ここで、nは、読み出されたピクチャの数である。
LDの場合、so(n)=0.95である。
動作3:選択されたピクチャ(以下では元のピクチャと呼ばれる)の前及び/又は後の2つのピクチャが読み出される。エッジの場合、例えば、最初のピクチャ又は最後のピクチャに近い場合、利用可能なピクチャのみが読み出される。
動作4:前及び後に読み出されたピクチャの、元のピクチャに対する動きは、8×8ピクチャブロック毎に推定される。
階層的動き推定方式が使用され、レイヤL0、L1、及びL2が図2に示される。サブサンプリングピクチャは、全部の読み出されたピクチャ及び元のピクチャ、例えば図1のL1について各2×2ブロックを平均することにより生成される。L2は、同じサブサンプリング方法を用いてL1から導出される。
図2は、階層動き推定の異なるレイヤの例を示す。L0は元の解像度である。L1はL0のサブサンプリングバージョンである。L2はL1のサブサンプリングバージョンである。
先ず、動き推定は、L2内の16×16ブロック毎に行われる。選択された動きベクトル毎に差の平方が計算され、最小の差に対応する動きベクトルが選択される。選択された動きベクトルは、次に、L1内で動きベクトルを推定するときの初期値として使用される。次に、L0内の動きを推定するために同じことが行われる。最終ステップとして、L0上の補間フィルタを用いて、8×8ブロック毎に、サブピクセル動きが推定される。
VTM6タップ補間フィルタが使用できる:
Figure 0007478225000027
動作5:動き補償は、ブロック毎に最も一致する動きに従い、元のピクチャの前及び後のピクチャに適用される。例えば、その結果、各ブロック内の元のピクチャのサンプル座標は、参照されるピクチャの中の最も一致する座標を有する。
動作6:ルマ及びクロマチャネルについて処理されたもの1つずつのサンプルは、以下のステップで説明される通りである。
動作7:新しいサンプル値Inが、次式を用いて計算される。
Figure 0007478225000028
ここで、Ioは元のサンプルのサンプル値であり、Ir(i)は動き補償済みピクチャiの対応するサンプルの強度であり、wr(i,a)は、利用可能な動き補償済みピクチャの数がaであるとき、動き補償済みピクチャiの重みである。
ルマチャネルでは、重みwr(i,a)は以下のように定義される:
Figure 0007478225000029
ここで、
Figure 0007478225000030
i及びaの全ての他の場合について、
Figure 0007478225000031
クロマチャネルでは、重みwr(i,a)は以下のように定義される:
Figure 0007478225000032
ここで、
Figure 0007478225000033
動作8:フィルタは、現在サンプルに適用される。結果として生じるサンプル値は、個別に格納される。
動作9:フィルタリング済みピクチャが符号化される。
3. 開示の実施形態により解決される技術的問題の例
(1)サブピクチャ制約に違反し得る幾つかの設計がある。
(A)アフィン再構成候補におけるTMVPは、現在サブピクチャの範囲外にある同一位置ピクチャ内のMVをフェッチすることがある。
(B)双方向オプティカルフロー(Bi-Directional Optical Flow (BDOF))及び予測精緻化オプティカルフロー(Prediction Refinement Optical Flow (PROF))における勾配を導出するとき、整数参照サンプルの2つの拡張された行及び2つの拡張された列が、フェッチされる必要がある。これらの参照サンプルは、現在サブピクチャの範囲外にある場合がある。
(C)ルママッピングクロマスケーリング(luma mapping chroma scaling (LMCS))においてクロマ残差スケーリング因子を導出するとき、アクセスされる再構成済みルマサンプルは、現在サブピクチャの範囲の範囲外にある場合がある。
(D)ルマイントラ予測モード、イントラ予測のための参照サンプル、CCLMのための参照サンプル、マージ/AMVP/CIIP/IBC/LMCSのための空間近隣候補のための近隣ブロック利用可能性、量子化パラメータ、CABAC初期化処理、左及び上シンタックスエレメントを用いるctxInc導出、及びctxIncfor、シンタックスエレメントmtt_split_cu_vertical_flagを導出するとき、近隣ブロックが現在サブピクチャの範囲外にある場合がある。サブピクチャの表現は、不完全なCTUを有するサブピクチャをもたらすことがある。CTUパーティション及びCU分割処理は、不完全なCTUを考慮する必要があり得る。
(2)サブピクチャに関連するシグナリングされるシンタックスエレメントは、任意の大きさであってよく、これはオーバフロー問題を生じ得る。
(3)サブピクチャの表現は、非長方形サブピクチャを生じ得る。
(4)現在、サブピクチャ及びサブピクチャグリッドは、4サンプルの単位で定義される。そして、シンタックスエレメントの長さは、ピクチャの高さを4で割ったものに依存する。しかしながら、現在のpic_width_in_luma_samples及びpic_height_in_luma_samplesは、Max(8,MinCbSizeY)の整数倍でなければならず、サブピクチャグリッドは8サンプルの単位で定義される必要がある。
(5)SPSシンタックスpic_width_max_in_luma_samples及びpic_height_max_in_luma_samplesは、8未満にならないよう制約される必要があり得る。
(6)参照ピクチャ再サンプリング/スケーラビリティとサブピクチャとの間の相互作用は、現在の設計では考慮されない。
(7)時間フィルタリングで、異なるサブピクチャに渡るサンプルが必要であることがある。
4.例示的な技術及び実施形態
以下の詳細なリストは、一般的な概念を説明するための例として考えられるべきである。これらの項目は、狭義に解釈されるべきではない。更に、これらの項目は任意の方法で結合できる。以後、時間フィルタは、他のピクチャ内のサンプルを必要とするフィルタを表すために使用される。Max(x,y)は、x及びyのうちの大きい方を返す。Min(x,y)は、x及びyのうちの小さい方を返す。
(1)アフィン動き候補(例えば、構成されたアフィンマージ候補)を生成するためにピクチャ内で時間MV予測子がフェッチされる位置(位置RBと命名する)は、必要なサブピクチャの左上角座標が(xTL,yTL)であり、必要なサブピクチャの右下座標が(xBR,yBR)であると仮定すると、必要なサブピクチャ内に存在しなければならない。
(a)一例では、必要なサブピクチャは、現在ブロックをカバーするサブピクチャである。
(b)一例では、座標(x,y)を有する位置RBが必要なサブピクチャの外側にある場合、時間MV予測子は利用できないとして扱われる。
i.一例では、x>xBRの場合、位置RBは必要なサブピクチャの外側にある。
ii.一例では、y>yBRの場合、位置RBは必要なサブピクチャの外側にある。
iii.一例では、x<xTLの場合、位置RBは必要なサブピクチャの外側にある。
iv.一例では、y<yTLの場合、位置RBは必要なサブピクチャの外側にある。
(c)一例では、位置RBが必要なサブピクチャの外側にある場合、BRの置換が利用される。
i.代替として、更に、置換位置は必要なサブピクチャ内に存在するべきである。
(d)一例では、位置RBは、必要なサブピクチャ内になるようクリッピングされる。
i.一例では、xは、x=Min(x,xBR)のようにクリッピングされる。
ii.一例では、yは、y=Min(y,yBR)のようにクリッピングされる。
iii.一例では、xは、x=Max(x,xTL)のようにクリッピングされる。
iv.一例では、yは、y=Max(y,yTL)のようにクリッピングされる。
(e)一例では、位置RBは、同一位置ピクチャ内の現在ブロックの対応するブロックの内側の右下位置であってよい。
(f)提案される方法は、現在ピクチャと異なるピクチャから動き情報にアクセスする必要がある、他のコーディングツールで利用されてよい。
(g)一例では、上述の方法が適用される((例えば、1.a及び/又は1.bに記載されるように行うために)例えば、位置RBが必要なサブピクチャの中に存在しなければならない)かどうかは、VPS/DPS/SPS/PPS/APS/スライスヘッダ/タイルグループヘッダの中でシグナリングされる1つ以上のシンタックスエレメントに依存してよい。例えば、シンタックスエレメントは、subpic_treated_as_pic_flag[SubPicIdx]であってよく、ここで、SubPicIdxは現在ブロックをカバーするサブピクチャのサブピクチャインデックスである。
(2)補間処理で使用されない参照の中で整数サンプルがフェッチされる位置(位置Sと命名する)は、必要なサブピクチャの左上角座標が(xTL,yTL)であり、必要なサブピクチャの右下座標が(xBR,yBR)であると仮定すると、必要なサブピクチャ内に存在しなければならない。
(a)一例では、必要なサブピクチャは、現在ブロックをカバーするサブピクチャである。
(b)一例では、座標(x,y)を有する位置Sが必要なサブピクチャの外側にある場合、参照サンプルは利用できないとして扱われる。
i.一例では、x>xBRの場合、位置Sは必要なサブピクチャの外側にある。
ii.一例では、y>yBRの場合、位置Sは必要なサブピクチャの外側にある。
iii.一例では、x<xTLの場合、位置Sは必要なサブピクチャの外側にある。
iv.一例では、y<yTLの場合、位置Sは必要なサブピクチャの外側にある。
(c)一例では、位置Sは、必要なサブピクチャ内になるようクリッピングされる。
i.一例では、xは、x=Min(x,xBR)のようにクリッピングされる。
ii.一例では、yは、y=Min(y,yBR)のようにクリッピングされる。
iii.一例では、xは、x=Max(x,xTL)のようにクリッピングされる。
iv.一例では、yは、y=Max(y,yTL)のようにクリッピングされる。
(d)一例では、(例えば、2.a及び/又は2.bに記載されるように行うために)位置Sが必要なサブピクチャの中に存在しなければならないかどうかは、VPS/DPS/SPS/PPS/APS/スライスヘッダ/タイルグループヘッダの中でシグナリングされる1つ以上のシンタックスエレメントに依存してよい。例えば、シンタックスエレメントは、subpic_treated_as_pic_flag[SubPicIdx]であってよく、ここで、SubPicIdxは現在ブロックをカバーするサブピクチャのサブピクチャインデックスである。
(e)一例では、フェッチされた整数サンプルは、BDOF及び/又はPORFにおける勾配を生成するために使用される。
(3)再構成ルマサンプル値がフェッチされる位置(位置Rと命名する)は、必要なサブピクチャの左上角座標が(xTL,yTL)であり、必要なサブピクチャの右下座標が(xBR,yBR)であると仮定すると、必要なサブピクチャ内に存在しなければならない。
(a)一例では、必要なサブピクチャは、現在ブロックをカバーするサブピクチャである。
(b)一例では、座標(x,y)を有する位置Rが必要なサブピクチャの外側にある場合、参照サンプルは利用できないとして扱われる。
i.一例では、x>xBRの場合、位置Rは必要なサブピクチャの外側にある。
ii.一例では、y>yBRの場合、位置Rは必要なサブピクチャの外側にある。
iii.一例では、x<xTLの場合、位置Rは必要なサブピクチャの外側にある。
iv.一例では、y<yTLの場合、位置Rは必要なサブピクチャの外側にある。
(c)一例では、位置Rは、必要なサブピクチャ内になるようクリッピングされる。
i.一例では、xは、x=Min(x,xBR)のようにクリッピングされる。
ii.一例では、yは、y=Min(y,yBR)のようにクリッピングされる。
iii.一例では、xは、x=Max(x,xTL)のようにクリッピングされる。
iv.一例では、yは、y=Max(y,yTL)のようにクリッピングされる。
(d)一例では、(例えば、4.a及び/又は4.bに記載されるように行うために)位置Rが必要なサブピクチャの中に存在しなければならないかどうかは、VPS/DPS/SPS/PPS/APS/スライスヘッダ/タイルグループヘッダの中でシグナリングされる1つ以上のシンタックスエレメントに依存してよい。例えば、シンタックスエレメントは、subpic_treated_as_pic_flag[SubPicIdx]であってよく、ここで、SubPicIdxは現在ブロックをカバーするサブピクチャのサブピクチャインデックスである。
(e)一例では、フェッチされたルマサンプルは、LMCSにおけるクロマコンポーネントのスケーリング因子を導出するために使用される。
(4)BT/TT/QT分割、BT/TT/QT深さ導出、及び/又はCU分割フラグのシグナリングのためのピクチャ境界チェックの位置(位置Nと命名する)は、必要なサブピクチャの左上角座標が(xTL,yTL)であり、必要なサブピクチャの右下座標が(xBR,yBR)であると仮定すると、必要なサブピクチャ内に存在しなければならない。
(a)一例では、必要なサブピクチャは、現在ブロックをカバーするサブピクチャである。
(b)一例では、座標(x,y)を有する位置Nが必要なサブピクチャの外側にある場合、参照サンプルは利用できないとして扱われる。
i.一例では、x>xBRの場合、位置Nは必要なサブピクチャの外側にある。
ii.一例では、y>yBRの場合、位置Nは必要なサブピクチャの外側にある。
iii.一例では、x<xTLの場合、位置Nは必要なサブピクチャの外側にある。
iv.一例では、y<yTLの場合、位置Nは必要なサブピクチャの外側にある。
(c)一例では、位置Nは、必要なサブピクチャ内になるようクリッピングされる。
i.一例では、xは、x=Min(x,xBR)のようにクリッピングされる。
ii.一例では、yは、y=Min(y,yBR)のようにクリッピングされる。
iii.一例では、xは、x=Max(x,xTL)のようにクリッピングされる。
(d)一例では、yは、y=Max(y,yTL)のようにクリッピングされる。一例では、(例えば、5.a及び/又は5.bに記載されるように行うために)位置Nが必要なサブピクチャの中に存在しなければならないかどうかは、VPS/DPS/SPS/PPS/APS/スライスヘッダ/タイルグループヘッダの中でシグナリングされる1つ以上のシンタックスエレメントに依存してよい。例えば、シンタックスエレメントは、subpic_treated_as_pic_flag[SubPicIdx]であってよく、ここで、SubPicIdxは現在ブロックをカバーするサブピクチャのサブピクチャインデックスである。
(5)履歴に基づく動きベクトル予測(History-based Motion Vector Prediction (HMVP))テーブルは、1つのピクチャ内の新しいサブピクチャを復号する前に、再設定(リセット)されてよい。
(a)一例では、IBCコーディングのために使用されるHMVPテーブルは、リセットされてよい。
(b)一例では、インターコーディングのために使用されるHMVPテーブルは、リセットされてよい。
(c)一例では、イントラコーディングのために使用されるHMVPテーブルは、リセットされてよい。
(6)サブピクチャシンタックスエレメントは、N(N=8、32、等)個のサンプルの単位で定義されてよい。
(a)一例では、は、サブピクチャ識別子グリッドの各要素の幅はN個のサンプルの単位である。
(b)一例では、サブピクチャ識別子グリッドの各要素の高さは、N個のサンプルの単位である。
(c)一例では、Nは、CTUの幅及び/又は高さに設定される。
(7)ピクチャ幅及びピクチャ高さのシンタックスエレメントは、K(K>=8)未満にならないよう制約されてよい。
(a)一例では、ピクチャ幅は、8未満にならないよう制約される必要があり得る。
(b)一例では、ピクチャ高さは、8未満にならないよう制約される必要があり得る。
(8)適合ビットストリームは、1ビデオユニット(例えば、シーケンス)について有効にされるために、サブピクチャコーディング及び適応解像度変換(Adaptive resolution conversion (ARC))/動的解像度変換(Dynamic resolution conversion (DRC))/参照ピクチャ再サンプリング(Reference picture resampling (RPR))が許可されないことを満たすべきである。
(a)一例では、サブピクチャコーディングを有効にするシグナリングは、ARC/DRC/RPRを許可しないという条件の下にあってよい。
i.一例では、サブピクチャが有効にされるとき、例えばsubpics_present_flagが1に等しいとき、このSPSがアクティブである全部のピクチャのpic_width_in_luma_samplesは、max_width_in_luma_samplesに等しい。
(b)代替として、サブピクチャコーディング及びARC/DRC/RPRは、両方とも、1ビデオユニット(例えば、シーケンス)について有効にされてよい。
i.一例では、適合ビットストリームは、ARC/DRC/RPRによりダウンサンプリングされたサブピクチャが、依然として、幅がK個のCTUであり高さがM個のCTUである形式であることを満たすべきである。ここで、K及びMは両方とも整数である。
ii.一例では、適合ビットストリームは、ピクチャ境界(例えば、右境界及び/又は下境界)に位置しないサブピクチャについて、ARC/DRC/RPRによりダウンサンプリングされたサブピクチャが、依然として、幅がK個のCTUであり高さがM個のCTUである形式であることを満たすべきである。ここで、K及びMは両方とも整数である。
iii.一例では、CTUサイズは、ピクチャ解像度に基づき適応して変更されてよい。
1)一例では、最大CTUサイズはSPS内でシグナリングされてよい。より低い解像度を有する各ピクチャについて、CTUサイズは、低下された解像度に基づき相応して変更されてよい。
2)一例では、CTUサイズは、SPS及びPPS内、及び/又はサブピクチャレベルでシグナリングされてよい。
(9)シンタックスエレメントsubpic_grid_col_width_minus1及びsubpic_grid_row_height_minus1は、制約されてよい。
(a)一例では、subpic_grid_col_width_minus1はT1より大きくてはならない(又は小さくてはならない)。
(b)一例では、subpic_grid_row_height_minus1はT2より大きくてはならない(又は小さくてはならない)。
(c)一例では、適合ビットストリームでは、subpic_grid_col_width_minus1及び/又はsubpic_grid_row_height_minus1は、項目3.a及び3.bのような制約に従わなければならない。
(d)一例では、3.aにおけるT1、及び/又は3.bにおけるT2は、ビデオコーディング標準のプロファイル/レベル/ティアに依存してよい。
(e)一例では、3.aにおけるT1は、ピクチャ幅に依存してよい。
i.例えば、T1はpic_width_max_in_luma_samples/4又はpic_width_max_in_luma_samples/4+Offに等しい。Offは、1、2、-1、-2等であってよい。
(f)一例では、3.bにおけるT2は、ピクチャ幅に依存してよい。
i.例えば、T2はpic_height_max_in_luma_samples/4又はpic_height_max_in_luma_samples/4-1+Offに等しい。Offは、1、2、-1、-2等であってよい。
(10)任意の2つのサブピクチャの間の境界が、2つのCTUの間の境界でなければならないという制約がある。
(a)言い換えると、CTUは、1つより多くのサブピクチャによりカバーできない。
(b)一例では、subpic_grid_col_width_minus1の単位は、VVCにおけるような4の代わりに、CTU幅(例えば、32、64、128)であってよい。サブピクチャグリッド幅は、(subpic_grid_col_width_minus1+1)*CTU幅であるべきである。
(c)一例では、subpic_grid_col_height_minus1の単位は、VVCにおけるような4の代わりに、CTU高さ(例えば、32、64、128)であってよい。サブピクチャグリッド高さは、(subpic_grid_col_height_minus1+1)*CTU高さであるべきである。
(d)一例では、適合ビットストリームでは、サブピクチャアプローチが適用される場合、制約が満たされなければならない。
(11)サブピクチャの形状が長方形でなければならないという制約がある。
(a)一例では、適合ビットストリームでは、サブピクチャアプローチが適用される場合、制約が満たされなければならない。
(b)サブピクチャは、長方形スライスのみを含んでよい。例えば、適合ビットストリームでは、サブピクチャアプローチが適用される場合、制約が満たされなければならない。
(12)2つのサブピクチャは重なり合うことができないという制約がある。
(a)一例では、適合ビットストリームでは、サブピクチャアプローチが適用される場合、制約が満たされなければならない。
(b)代替として、2つのサブピクチャは、互いに重なり合ってよい。
(13)ピクチャ内の任意の位置が1つの及び1つのみのサブピクチャによりカバーされなければならないという制約がある。
(a)一例では、適合ビットストリームでは、サブピクチャアプローチが適用される場合、制約が満たされなければならない。
(b)代替として、1つのサンプルは、任意のサブピクチャに属さなくてよい。
(c)代替として、1つのサンプルは、1つより多くのサブピクチャに属してよい。
(14)同じシーケンス内で提示される全ての解像度にマッピングされるSPS内で定義されるサブピクチャは、上述の制約された位置及び/又はサイズに従うべきであるという制約があってよい。
(a)一例では、同じシーケンス内で提示される解像度にマッピングされるSPS内で定義されたサブピクチャの幅及び高さは、N(例えば、8、16、32)個のルマサンプルの整数倍であるべきである。
(b)一例では、サブピクチャは、特定のレイヤについて定義されてよく、他のレイヤにマッピングされてよい。
i.例えば、サブピクチャは、シーケンス内の最高解像度を有するレイヤについて定義されてよい。
ii.例えば、サブピクチャは、シーケンス内の最低解像度を有するレイヤについて定義されてよい。
iii.どのレイヤについてサブピクチャが定義されるかは、SPS/VPS/PPS/スライスヘッダ内でシグナリングされてよい。
(c)一例では、サブピクチャ及び異なる解像度の両方が適用されるとき、全ての解像度(例えば幅及び/又は高さ)は、所与の解像度の整数倍であってよい。
(d)一例では、SPS内で定義されたサブピクチャの幅及び/又は高さは、CTUサイズの整数倍(例えば、M)であってよい。
(e)代替として、シーケンス内のサブピクチャ及び異なる解像度は、同時に許可されなくてよい。
(15)サブピクチャは、特定のレイヤにのみ適用されてよい。
(a)一例では、SPS内で定義されたサブピクチャは、シーケンス内の最高解像度を有するレイヤにのみ適用されてよい。
(b)一例では、SPS内で定義されたサブピクチャは、シーケンス内の最低解像度を有するレイヤにのみ適用されてよい。
(c)どのレイヤにサブピクチャが適用され得るかは、SPS/VPS/PPS内の1又は複数のシンタックスエレメントにより示されてよい。
(d)どのレイヤにサブピクチャが適用できないかは、SPS/VPS/PPS内の1又は複数のシンタックスエレメントにより示されてよい。
(16)一例では、サブピクチャの位置及び/又は寸法は、subpic_grid_idxを使用せずに、シグナリングされてよい。
(a)一例では、サブピクチャの左上位置がシグナリングされてよい。
(b)一例では、サブピクチャの右下位置がシグナリングされてよい。
(c)一例では、サブピクチャの幅がシグナリングされてよい。
(d)一例では、サブピクチャの高さがシグナリングされてよい。
(17)時間フィルタでは、サンプルの時間フィルタリングを実行するとき、現在サンプルが属する同じサブピクチャの範囲内のサンプルのみが、使用されてよい。必要なサンプルは、現在サンプルが属する同じピクチャ内に、又は他のピクチャ内に存在してよい。
(18)一例では、パーティション方法(例えば、QT、水平BT、垂直BT、水平TT、垂直TT、又は分割無し、等)を適用するかどうか及び/又はどのように適用するかは、現在ブロック(又はパーティション)がサブピクチャの1又は複数の境界を横切るかどうかに依存してよい。
(a)一例では、VVCにおけるパーティションのためのピクチャ境界処理方法は、ピクチャ境界がサブピクチャ境界により置換されるときにも適用されてよい。
(b)一例では、パーティション方法(例えば、QT、水平BT、垂直BT、水平TT、垂直TT、又は分割無し、等)を表すシンタックスエレメント(例えば、フラグ)をパースするかどうか及び/又はどのように適用するかは、現在ブロック(又はパーティション)がサブピクチャの1又は複数の境界を横切るかどうかに依存してよい。
(19)1つのピクチャを複数のサブピクチャに分割して各サブピクチャを独立してコーディングする代わりに、ピクチャを少なくとも2つのサブ領域セットに分割して、複数のサブピクチャを含む第1セットと、全部の残りのサンプルを含む第2セットとにすることが提案される。
(a)一例では、第2セット内のサンプルは、任意のサブピクチャ内に存在しない。
(b)代替として、更に、第2セットは、第1セットの情報に基づき符号化/復号されてよい。
(c)一例では、デフォルト値は、サンプル/M×Kサブ領域が第2セットに属するかどうかをマークするために利用されてよい。
(i)一例では、デフォルト値は、(max_subpics_minus1+K)に等しく設定されてよい。ここで、Kは1より大きい整数である。
(ii)デフォルト値は、グリッドが第2セットに属することを示すために、subpic_grid_idx[i][j]に割り当てられてよい。
(20)シンタックスエレメントsubpic_grid_idx[i][j]は、max_subpics_minus1より大きくならないことが提案される。
(a)例えば、適合ビットストリームでは、subpic_grid_idx[i][j]はmax_subpics_minus1より大きくなることができないという制約がある。
(b)例えば、subpic_grid_idx[i][j]をコーディングするためのコードワードは、max_subpics_minus1より大きくなることができない。
(21)0からmax_subpics_minus1までの任意の整数は、少なくとも1つのsubpic_grid_idx[i][j]に等しくなければならないことが提案される。
(22)IBC仮想バッファは、1つのピクチャ内の新しいサブピクチャを復号する前に、リセットされてよい。
(a)一例では、IBC仮想バッファ内の全部のサンプルは、-1にリセットされてよい。
(23)パレットエントリリストは、1つのピクチャ内の新しいサブピクチャを復号する前に、リセットされてよい。
(a)一例では、PredictorPaletteSizeは、1つのピクチャ内の新しいサブピクチャを復号する前に、0に等しくなるよう設定されてよい。
5.実施形態
以下の実施形態では、新たに追加されたテキストは太字の斜体であり、削除されたテキストは「[[]]」によりマークされる。
5.1 実施形態1:アフィン構成マージ候補に対するサブピクチャ制約
8.5.5.6 構成されたアフィン制御点動きベクトルマージ候補のための導出処理
この処理への入力は:
-現在ピクチャの左上ルマサンプルに対する、現在ルマコーディングブロックの左上サンプルを指定するルマ位置(xCb,yCb)、
-現在ルマコーディングブロックの幅及び高さを指定する2つの変数cbWidth及びcbHeight、
-利用可能性フラグavailableA,availableA,availableA,availableB,availableB,availableB,availableB
-サンプル位置(xNbA,yNbA),(xNbA,yNbA),(xNbA,yNbA),(xNbB,yNbB),(xNbB,yNbB),(xNbB,yNbB)及び(xNbB,yNbB)。
この処理の出力は:
構成されたアフィン制御点動きベクトルマージ候補の利用可能性フラグavailableFlagConstK、K=1...6、
-参照インデックスrefIdxLXConstK,、K=1..6、Xは0又は1、
-予測リスト利用フラグpredFlagLXConstK、K=1..6,Xは0又は1、
-アフィン動きモデルインデックスmotionModelIdcConstK、K=1..6、
-双予測重みインデックスbcwIdxConstK、K=1..6、
-構成されたアフィン制御点動きベクトル、cpIdx=0..2、K=1..6、Xは0又は1。

第4(同一位置右下)制御点動きベクトルcpMvLXCorner[3]、参照インデックスrefIdxLXCorner[3]、予測リスト利用フラグpredFlagLXCorner[3]、及び利用可能性フラグavailableFlagCorner[3]、ここでXは0又は1、は、以下のように導出される:
-時間マージ候補の参照インデックスrefIdxLXCorner[3]、ここでXは0又は1、は0に等しく設定される。
-変数mvLXCol及びavailableFlagLXCol、ここでXは0又は1、は以下のように導出される:
・slice_temporal_mvp_enabled_flagが0に等しい場合、mvLXColの両方のコンポーネントは0に等しく設定され、availableFlagLXColは0に等しく設定される。
・その他の場合(slice_temporal_mvp_enabled_flagが1に等しい)、以下が適用される:
Figure 0007478225000034
Figure 0007478225000035
・変数colCbは、ColPicにより指定される同一位置ピクチャの内側の、((xColBr>>3)<<3,(yColBr>>3)<<3)により与えられる変更位置をカバーするルマコーディングブロックを指定する。
・ルマ位置(xColCb,yColCb)は、ColPicにより指定される同一位置ピクチャの左上ルマサンプルに対する、colCbにより指定される同一位置ルマコーディングブロックの左上サンプルに等しく設定される。
・8.5.2.12項に指定される同一位置動きベクトルの導出処理は、currCb、colCb、(xColCb,yColCb)、refIdxLXCorner[3]、及び0に等しく設定されたsbFlagを入力として呼び出され、出力はmvLXCol及びavailableFlagLXColに割り当てられる。
-その他の場合、mvLXColの両方のコンポーネントは0に等しく設定され、availableFlagLXColは0に等しく設定される。
5.2 実施形態2:アフィン構成マージ候補に対するサブピクチャ制約
8.5.5.6 構成されたアフィン制御点動きベクトルマージ候補のための導出処理
この処理への入力は:
-現在ピクチャの左上ルマサンプルに対する、現在ルマコーディングブロックの左上サンプルを指定するルマ位置(xCb,yCb)、
-現在ルマコーディングブロックの幅及び高さを指定する2つの変数cbWidth及びcbHeight、
-利用可能性フラグavailableA,availableA,availableA,availableB,availableB,availableB,availableB
-サンプル位置(xNbA,yNbA),(xNbA,yNbA),(xNbA,yNbA),(xNbB,yNbB),(xNbB,yNbB),(xNbB,yNbB)及び(xNbB,yNbB)。
この処理の出力は:
構成されたアフィン制御点動きベクトルマージ候補の利用可能性フラグavailableFlagConstK、K=1...6、
-参照インデックスrefIdxLXConstK,、K=1..6、Xは0又は1、
-予測リスト利用フラグpredFlagLXConstK、K=1..6,Xは0又は1、
-アフィン動きモデルインデックスmotionModelIdcConstK、K=1..6、
-双予測重みインデックスbcwIdxConstK、K=1..6、
-構成されたアフィン制御点動きベクトル、cpIdx=0..2、K=1..6、Xは0又は1。

第4(同一位置右下)制御点動きベクトルcpMvLXCorner[3]、参照インデックスrefIdxLXCorner[3]、予測リスト利用フラグpredFlagLXCorner[3]、及び利用可能性フラグavailableFlagCorner[3]、ここでXは0又は1、は、以下のように導出される:
-時間マージ候補の参照インデックスrefIdxLXCorner[3]、ここでXは0又は1、は0に等しく設定される。
-変数mvLXCol及びavailableFlagLXCol、ここでXは0又は1、は以下のように導出される:
・slice_temporal_mvp_enabled_flagが0に等しい場合、mvLXColの両方のコンポーネントは0に等しく設定され、availableFlagLXColは0に等しく設定される。
・その他の場合(slice_temporal_mvp_enabled_flagが1に等しい)、以下が適用される:
Figure 0007478225000036
・yCb>>CtbLog2SizeYがyColBr>>CtbLog2SizeYと等しい場合、[[yColBrpic_height_in_luma_samples以下であり、xColBrpic_width_in_luma_samples以下であり、以下が適用される]]:
-変数colCbは、ColPicにより指定される同一位置ピクチャの内側の、((xColBr>>3)<<3,(yColBr>>3)<<3)により与えられる変更位置をカバーするルマコーディングブロックを指定する。
-ルマ位置(xColCb,yColCb)は、ColPicにより指定される同一位置ピクチャの左上ルマサンプルに対する、colCbにより指定される同一位置ルマコーディングブロックの左上サンプルに等しく設定される。
-8.5.2.12項に指定される同一位置動きベクトルの導出処理は、currCb、colCb、(xColCb,yColCb)、refIdxLXCorner[3]、及び0に等しく設定されたsbFlagを入力として呼び出され、出力はmvLXCol及びavailableFlagLXColに割り当てられる。
・その他の場合、mvLXColの両方のコンポーネントは0に等しく設定され、availableFlagLXColは0に等しく設定される。
5.3 実施形態3:サブピクチャ制約の下で整数サンプルをフェッチする
8.5.6.3.3 ルマ整数サンプルフェッチ処理
この処理への入力は:
-フルサンプルユニットのルマ位置(xIntL,yIntL)、
-ルマ参照サンプルアレイrefPicLXL
この処理の出力は、予測ルマサンプル値predSampleLXLである。
変数shiftは、Max(2,14-BitDepthY)に等しく設定される。
変数picWは、pic_width_in_luma_samplesに等しく設定され、変数picHはpic_height_in_luma_samplesに等しく設定される。
フルサンプルユニットのルマ位置(xInti,yInti)は、以下のように導出される:
Figure 0007478225000037
予測されたルマサンプル値はpredSampleLXLは以下のように導出される:
Figure 0007478225000038
5.4 実施形態4:LMCSのクロマ残差スケーリングにおける変数invAvgLumaの導出
8.7.5.3 クロマサンプルのルマ依存クロマ残差スケーリング処理によるピクチャ再構成
この処理への入力は:
-現在ピクチャの左上クロマサンプルに対する、現在クロマ変換ブロックの左上クロマサンプルのクロマ位置(xCurr,yCurr)、
-クロマ変換ブロック幅を指定する変数nCurrSw、
-クロマ変換ブロック高さを指定する変数nCurrSh、
-現在クロマ変換ブロックのコーディングブロックフラグを指定する変数tuCbfChroma、
-現在ブロックのクロマ予測サンプルを指定する(nCurrSw)x(nCurrSh)アレイpredSamples、
-現在ブロックのクロマ残差サンプルを指定する(nCurrSw)x(nCurrSh)アレイresSamples。
この処理の出力は、再構成クロマピクチャサンプルアレイrecSamplesである。
変数sizeYは、Min(CtbSizeY,64)に等しく設定される。
再構成クロマピクチャサンプルrecSamplesは、i=0..nCurrSw-1,j=0..nCurrSh-1について以下のように導出される:

その他の場合、以下が適用される。

変数currPicは、現在ピクチャ内の再構成ルマサンプルのアレイを指定する。
変数varScaleの導出のために、以下の順序付きステップが適用される:
Figure 0007478225000039
5.5 実施形態5:4個のサンプル以外のN(例えばN=8又は32)個の単位でサブピクチャエレメントを定義する例
7.4.3.3 シーケンスパラメータセットRBSPセマンティクス
Figure 0007478225000040
7.4.7.1 汎用スライスヘッダセマンティクス
変数SubPicIdx、SubPicLeftBoundaryPos、SubPicTopBoundaryPos、SubPicRightBoundaryPos、及びSubPicBotBoundaryPosは、以下のように導出される:
Figure 0007478225000041
5.6 実施形態6:ピクチャ幅及びピクチャ高さが8以上になるよう制約する
7.4.3.3 シーケンスパラメータセットRBSPセマンティクス
Figure 0007478225000042
5.7 実施形態7:BT/TT/QT分割、BT/TT/QT深さ導出、及び/又はCU分割フラグのシグナリングのためのサブピクチャ境界チェック
6.4.2 許可されるバイナリ分割処理
変数allowBtSplitは、以下のように導出される:
Figure 0007478225000043
Figure 0007478225000044
6.4.2 許可される3分割処理
変数allowTtSplitは、以下のように導出される:
Figure 0007478225000045
7.3.8.2 コーディングツリーユニットシンタックス
Figure 0007478225000046
7.3.8.4 コーディングツリーシンタックス
Figure 0007478225000047
Figure 0007478225000048
図3は、ビデオ処理機器300のブロック図である。機器300は、ここに記載した方法のうちの1つ以上を実施するために使用されてよい。機器300は、スマートフォン、タブレット、コンピュータ、モノのインターネット(Internet of Things (IoT))受信機、等において実施されてよい。機器300は、1つ以上のプロセッサ302、1つ以上のメモリ304、及びビデオ処理ハードウェア306を含んでよい。プロセッサ302は、本願明細書に記載した1つ以上の方法を実施するよう構成されてよい。メモリ(複数のメモリ)304は、本願明細書に記載の方法及び技術を実施するために使用されるデータ及びコードを格納するために使用されてよい。ビデオ処理ハードウェア306は、ハードウェア回路で、本願明細書に記載した幾つかの技術を実施するために使用されてよい。
図4は、ビデオを処理する方法400のフローチャートである。方法1800は、ビデオの第1ビデオ領域内のビデオブロックについて、アフィンモードを用いてビデオブロックと現在ビデオブロックのビットストリーム表現との間の変換のために時間動きベクトル予測子が決定される位置が、第2ビデオ領域の範囲内であるかどうかを決定するステップ(402)と、決定に基づき変換を実行するステップ(404)と、を含む。
以下のソリューションは、幾つかの実施形態において好適なソリューションとして実装されてよい。
以下のソリューションは、前の章(例えば、項目1)にリストされた項目で説明した追加技術と一緒に実装されてよい。
(ソリューション1)ビデオ処理の方法であって、ビデオの第1ビデオ領域内のビデオブロックについて、アフィンモードを用いて前記ビデオブロックと現在ビデオブロックのビットストリーム表現との間の変換のために時間動きベクトル予測子が決定される位置が、第2ビデオ領域の範囲内であるかどうかを決定するステップと、前記決定に基づき前記変換を実行するステップと、を含む方法。
(ソリューション2)前記ビデオブロックは、前記第1領域及び前記第2領域によりカバーされる、ソリューション1に記載の方法。
(ソリューション3)前記時間動きベクトル予測子の位置が前記第2ビデオ領域の外側にある場合、前記時間動きベクトル予測子は利用できないとマークされ、前記変換において使用されない、ソリューション1~2のいずれかに記載の方法。
以下のソリューションは、前の章(例えば、項目2)にリストされた項目で説明した追加技術と一緒に実装されてよい。
(ソリューション4)ビデオ処理の方法であって、ビデオの第1ビデオ領域内のビデオブロックについて、前記ビデオブロックと現在ビデオブロックのビットストリーム表現との間の変換のために参照ピクチャ内の整数サンプルがフェッチされる位置が、第2ビデオ領域の範囲内であるかどうかを決定するステップであって、前記参照ピクチャは前記変換中に補間処理において使用されない、ステップと、前記決定に基づき前記変換を実行するステップと、を含む方法。
(ソリューション5)前記ビデオブロックは、前記第4領域及び前記第2領域によりカバーされる、ソリューション1に記載の方法。
(ソリューション6)前記サンプルの位置が前記第2ビデオ領域の外側にある場合、前記サンプルは利用できないとマークされ、前記変換において使用されない、ソリューション4~5のいずれかに記載の方法。
以下のソリューションは、前の章(例えば、項目3)にリストされた項目で説明した追加技術と一緒に実装されてよい。
(ソリューション7)ビデオ処理の方法であって、ビデオの第1ビデオ領域内のビデオブロックについて、前記ビデオブロックと現在ビデオブロックのビットストリーム表現との間の変換のために再構成ルマサンプル値がフェッチされる位置が、第2ビデオ領域の範囲内であるかどうかを決定するステップと、前記決定に基づき前記変換を実行するステップと、を含む方法。
(ソリューション8)前記ルマサンプルは、前記第1領域及び前記第2領域によりカバーされる、ソリューション7に記載の方法。
(ソリューション9)前記ルマサンプルの位置が前記第2ビデオ領域の外側にある場合、前記ルマサンプルは利用できないとマークされ、前記変換において使用されない、ソリューション7~8のいずれかに記載の方法。
以下のソリューションは、前の章(例えば、項目4)にリストされた項目で説明した追加技術と一緒に実装されてよい。
(ソリューション10)ビデオ処理の方法であって、ビデオの第1ビデオ領域内のビデオブロックについて、前記ビデオブロックと前記現在ビデオブロックのビットストリーム表現との間の変換中に、前記ビデオブロックについて分割に関するチェック、深さ導出、又は分割フラグシグナリングが実行される位置が、第2ビデオ領域の範囲内であるかどうかを決定するステップと、前記決定に基づき前記変換を実行するステップと、を含む方法。
(ソリューション11)前記位置は、前記第1領域及び前記第2領域によりカバーされる、ソリューション10に記載の方法。
(ソリューション12)前記位置が前記第2ビデオ領域の外側にある場合、前記ルマサンプルは利用できないとマークされ、前記変換において使用されない、ソリューション10~11のいずれかに記載の方法。
以下のソリューションは、前の章(例えば、項目8)にリストされた項目で説明した追加技術と一緒に実装されてよい。
(ソリューション13)ビデオ処理の方法であって、1つ以上のビデオブロックを含む1つ以上のビデオピクチャを含むビデオと、前記ビデオのコーディング表現との間の変換を実行するステップを含み、前記コーディング表現は、前記変換がサブピクチャコーディング/復号、及び動的解像度変換コーディング/復号ツール又は参照ピクチャ再サンプリングツールをビデオユニット内で使用しないというコーディングシンタックス要件に従う、方法。
(ソリューション14)前記ビデオユニットは、前記1つ以上のビデオピクチャのシーケンスに対応する、ソリューション13に記載の方法。
(ソリューション15)前記動的解像度変換コーディング/復号ツールは、適応解像度変換コーディング/復号ツールを含む、ソリューション13~14のいずれかに記載の方法。
(ソリューション16)前記動的解像度変換コーディング/復号ツールは、動的解像度変換コーディング/復号ツールを含む、ソリューション13~14のいずれかに記載の方法。
(ソリューション17)前記コーディング表現は、前記ビデオユニットが前記コーディングシンタックス要件に従うことを示す、ソリューション13~16のいずれかに記載の方法。
(ソリューション18)前記コーディング表現は、前記ビデオユニットが前記サブピクチャを使用することを示す、ソリューション17に記載の方法。
(ソリューション19)前記コーディング表現は、前記ビデオユニットが前記動的解像度変換コーディング/復号ツール又は前記参照ピクチャ再サンプリングツールを使用することを示す、ソリューション17に記載の方法。
以下のソリューションは、前の章(例えば、項目10)にリストされた項目で説明した追加技術と一緒に実装されてよい。
(ソリューション20)前記第2ビデオ領域はビデオサブピクチャを含み、前記第2ビデオ領域と別のビデオ領域との境界は、2つのコーディングツリーユニットの間の境界も含む、ソリューション1~19のいずれかに記載の方法。
(ソリューション21)前記第2ビデオ領域はビデオサブピクチャを含み、前記第2ビデオ領域と別のビデオ領域との境界は、2つのコーディングツリーユニットの間の境界も含む、ソリューション1~19のいずれかに記載の方法。
以下のソリューションは、前の章(例えば、項目11)にリストされた項目で説明した追加技術と一緒に実装されてよい。
(ソリューション22)前記第1ビデオ領域及び前記第2ビデオ領域は長方形形状を有する、ソリューション1~21のいずれかに記載の方法。
以下のソリューションは、前の章(例えば、項目12)にリストされた項目で説明した追加技術と一緒に実装されてよい。
(ソリューション23)前記第1ビデオ領域及び前記第2ビデオ領域は重なり合わない、ソリューション1~22のいずれかに記載の方法。
以下のソリューションは、前の章(例えば、項目13)にリストされた項目で説明した追加技術と一緒に実装されてよい。
(ソリューション24)前記ビデオピクチャは、前記ビデオピクチャ内のピクセルが1つの且つ1つのみのビデオ領域によりカバーされるように、ビデオ領域に分割される、ソリューション1~23のいずれかに記載の方法。
以下のソリューションは、前の章(例えば、項目15)にリストされた項目で説明した追加技術と一緒に実装されてよい。
(ソリューション25)前記ビデオピクチャが前記ビデオシーケンスの特定レイヤ内にあることに起因して、前記ビデオピクチャは、前記第1ビデオ領域及び前記第2ビデオ領域に分割される、ソリューション1~24のいずれかに記載の方法。
以下のソリューションは、前の章(例えば、項目10)にリストされた項目で説明した追加技術と一緒に実装されてよい。
(ソリューション26)ビデオ処理の方法であって、1つ以上のビデオブロックを含む1つ以上のビデオピクチャを含むビデオと、前記ビデオのコーディング表現との間の変換を実行するステップを含み、前記コーディング表現は、第1シンタックスエレメントsubpic_grid_idx[i][j]が第2シンタックスエレメントmax_subpics_minus1より大きくないというコーディングシンタックス要件に従う、方法。
(ソリューション27)前記第1シンタックスエレメントを表すコードワードは、前記第2シンタックスエレメントを表すコードワードより大きくない、ソリューション26に記載の方法。
(ソリューション28)前記第1ビデオ領域はビデオサブピクチャを含む、ソリューション1~27のいずれかに記載の方法。
(ソリューション29)前記第2ビデオ領域はビデオサブピクチャを含む、ソリューション1~28のいずれかに記載の方法。
(ソリューション30)前記変換は、前記ビデオを前記コーディング表現に符号化することを含む、ソリューション1~29のいずれかに記載の方法。
(ソリューション31)前記変換は、前記コーディング表現を復号して前記ビデオのピクセル値を生成することを含む、ソリューション1~29のいずれかに記載の方法。
(ソリューション32)ビデオ復号機器であって、ソリューション1~31のうちの1つ以上に記載の方法を実施するよう構成されるプロセッサを含むビデオ復号機器。
(ソリューション33)ビデオ符号化機器であって、ソリューション1~31のうちの1つ以上に記載の方法を実施するよう構成されるプロセッサを含むビデオ符号化機器。
(ソリューション34)格納されたコンピュータコードを有するコンピュータプログラムプロダクトであって、前記コードは、プロセッサにより実行されると、前記プロセッサにソリューション1~31のいずれかに記載の方法を実施させる、コンピュータプログラムプロダクト。
(ソリューション35)本願明細書に記載された方法、機器、又はシステム。
図5は、ここに開示される種々の技術が実施され得る例示的なビデオ処理システム500を示すブロック図である。種々の実装は、システム500のコンポーネントの一部又は全部を含んでよい。システム500は、ビデオコンテンツを受信する入力502を含んでよい。ビデオコンテンツは、生(raw)又は非圧縮フォーマット、例えば8又は10ビット複数成分ピクセル値で受信されてよく、或いは圧縮又は符号化フォーマットであってよい。入力502は、ネットワークインタフェース、周辺機器バスインタフェース、又はストレージインタフェースを表してよい。ネットワークインタフェースの例は、イーサネット(登録商標)、受動光ネットワーク(passive optical network (PON))等のような有線インタフェース、及びWi-Fi又はセルラインタフェースのような無線インタフェースを含む。
システム500は、本願明細書に記載された種々のコーディング又は符号化方法を実施し得るコーディングコンポーネント504を含んでよい。コーディングコンポーネント504は、入力502からコーディングコンポーネント504の出力へのビデオの平均ビットレートを低減して、ビデオのコーディング表現を生成してよい。コーディング技術は、従って、時に、ビデオ圧縮又はビデオトランスコーディング技術と呼ばれる。コーディングコンポーネント504の出力は、コンポーネント506により表されるように、格納されるか、又は通信接続を介して送信されてよい。入力502で受信された、格納され又は通信されたビットストリーム(又はコーディングされた)表現は、コンポーネント508により、ディスプレイインタフェース510へ送信されるピクセル値又は表示可能なビデオを生成するために、使用されてよい。ビットストリーム表現からユーザに閲覧可能なビデオを生成する処理は、時に、ビデオ伸長と呼ばれる。更に、特定のビデオ処理動作は「コーディング」動作又はツールと呼ばれるが、コーディングツール又は動作は、エンコーダにおいて使用され、コーディングの結果を逆にする対応する復号ツール又は動作がデコーダにより実行されることが理解される。
周辺機器バスインタフェース又はディスプレイインタフェースの例は、ユニバーサルシリアルバス(universal serial bus (USB))又は高解像度マルチメディアインタフェース(high definition multimedia interface (HDMI(登録商標)))又はディスプレイポート(Displayport)、等を含んでよい。ストレージインタフェースの例は、SATA(serial advanced technology attachment)、PCI、IDEインタフェース、等を含む。本願明細書に記載した技術は、移動電話機、ラップトップ、スマートフォン、又はデジタルデータ処理を実行可能な他の装置、及び/又はビデオディスプレイのような種々の電子装置に実装されてよい。
図6は、本発明の技術によるビデオ処理の方法600のフローチャート表現である。方法600は、動作610において、ビデオの第1ピクチャの現在ブロックとビデオのビットストリーム表現との間の変換のために、ルールに従い、第2ピクチャからの動き情報に基づき、動き候補を決定するステップを含む。ルールは、動き情報がアクセスされる位置が、第2ピクチャの特定のサブピクチャの範囲内であるよう制約されることを指定する。方法600は、動作620で、決定に基づき変換を実行するステップを更に含む。
幾つかの実施形態では、動き情報は動きベクトルを含み、動き候補はアフィン動き候補を含む。幾つかの実施形態では、ルールは、第1位置が特定サブピクチャの外側にある場合に、第1位置の代わりとして、位置が使用されることを指定する。幾つかの実施形態では、位置は、現在ブロックに対応するビデオピクチャ内のブロックの右下角にある。
図7は、本発明の技術によるビデオ処理の方法700のフローチャート表現である。方法700は、動作710で、ビデオの第1ピクチャの現在ブロックと前記ビデオのビットストリーム表現の変換のために、ルールに従い、第2ピクチャからの整数サンプルを決定するステップを含む。第2ピクチャは、補間処理において使用されない参照ピクチャを含む。ルールは、整数サンプルがアクセスされる位置が、第2ピクチャの特定のサブピクチャの範囲内であるよう制約されることを指定する。方法700は、動作720で、決定に基づき変換を実行するステップを更に含む。幾つかの実施形態では、整数サンプルは、双方向オプティカルフロー又は予測精緻化オプティカルフロー処理における1つ以上の勾配を生成するために使用される。
図8は、本発明の技術によるビデオ処理の方法800のフローチャート表現である。方法800は、動作810において、ビデオの現在ブロックと前記ビデオのビットストリーム表現の変換のために、ルールに従い、再構成ルマサンプルがアクセスされる位置を決定するステップを含む。ルールは、位置が、ビデオピクチャの特定のサブピクチャの範囲内であるよう制約されることを指定する。方法800は、動作820で、決定に基づき変換を実行するステップを更に含む。幾つかの実施形態では、再構成ルマサンプルは、ルママッピングクロマスケーリング処理においてクロマコンポーネントのスケーリング因子を導出するためにアクセスされる。
図9は、本発明の技術によるビデオ処理の方法900のフローチャート表現である。方法900は、動作910において、ビデオの現在ブロックとビデオのビットストリーム表現の変換のために、ルールに従い、ピクチャ境界チェックが実行される位置を決定するステップを含む。ルールは、位置が、ビデオピクチャの特定のサブピクチャの範囲内であるよう制約されることを指定する。方法900は、動作920で、決定に基づき変換を実行するステップを更に含む。
幾つかの実施形態では、ピクチャ境界チェックは、以下:(1)2分木、3分木、又は4分木の分割、(2)2分木、3分木、又は4分木の深さ導出、或いは(3)現在ブロックの分割フラグのシグナリング、のうちの少なくとも1つのために実行される。幾つかの実施形態では、特定サブピクチャは、現在ブロックをカバーする同一位置サブピクチャである。
幾つかの実施形態では、ルールは、位置が特定サブピクチャの外側にある場合に、位置における情報が利用可能ではないとして扱われることを指定する。位置は(x,y)として表され、特定サブピクチャの左上角は(xTL,yTL)として表され、特定サブピクチャの右下角は(xBR,yBR)として表される。幾つかの実施形態では、x>xBR、y>yBR、x<xTL、又はy<yTLの場合、位置は、特定サブピクチャの外側にある。幾つかの実施形態では、位置は、ビデオピクチャの特定サブピクチャの範囲内になるようクリッピングされることを指定する。位置は(x,y)として表され、特定サブピクチャの左上角は(xTL,yTL)として表され、特定サブピクチャの右下角は(xBR,yBR)として表される。幾つかの実施形態では、xは、x及びxRのうちの小さい方の値になるようクリッピングされる。幾つかの実施形態では、yは、y及びyRのうちの小さい方の値になるようクリッピングされる。幾つかの実施形態では、xは、x及びxTLうちの大きい方の値になるようクリッピングされる。幾つかの実施形態では、y、yびyTLのうちの大きい方の値になるようクリッピングされる。
幾つかの実施形態では、ルールが適用可能かどうかは、ビットストリーム表現の中のシンタックスエレメントに基づく。幾つかの実施形態では、シンタックスエレメントは、ビデオパラメータセット、依存性パラメータセット、スライスパラメータセット、ピクチャパラメータセット、アクティブパラメータセット、スライスヘッダ、又はタイルグループヘッダの中でシグナリングされる。幾つかの実施形態では、シンタックスエレメントは、subpic_treated_as_pic_flag[SubPicIdx]を含み、SubPicIdxは、現在ブロックをカバーする特定サブピクチャのサブピクチャインデックスである。
幾つかの実施形態では、変換は、ビットストリーム表現から現在ブロックを生成する。幾つかの実施形態では、変換は、現在ブロックからビットストリーム表現を生成する。
図10は、本発明の技術によるビデオ処理の方法1000のフローチャート表現である。方法1000は、動作1010で、ビデオのビデオピクチャのサブピクチャとビデオのビットストリーム表現の変換の後に、過去の変換に基づき導出された動き候補のテーブルを再設定(リセット)するステップを含む。方法1000は、動作1020で、リセット後のテーブルを用いて、ビデオピクチャの後続のサブピクチャとビットストリーム表現の変換を実行するステップを更に含む。
幾つかの実施形態では、動き候補のテーブルは、イントラブロックコーディングモードのための動き候補を含む。幾つかの実施形態では、動き候補のテーブルは、インターコーディングモードのための動き候補を含む。幾つかの実施形態では、動き候補のテーブルは、イントラコーディングモードのための動き候補を含む。
幾つかの実施形態では、変換は、ビットストリーム表現からサブピクチャ及び後続のサブピクチャを生成する。幾つかの実施形態では、変換は、サブピクチャ及び後続のサブピクチャからビットストリーム表現を生成する。
図11は、本発明の技術によるビデオ処理の方法1100のフローチャート表現である。方法1100は、動作1110で、ルールに従い、複数のサブピクチャ及び複数のビデオブロックを含むビデオピクチャを有するビデオと、前記ビデオのコーディング表現との間の変換を実行するステップを含む。ルールは、任意の2つのサブピクチャが、2つのビデオブロックの間の境界でもあることを指定する。ビデオピクチャ内のビデオブロックは、ビデオピクチャの単一のサブピクチャによりカバーされる。
幾つかの実施形態では、ビデオピクチャ内の任意の位置は、ビデオピクチャの最大でも1つのサブピクチャによりカバーされる。幾つかの実施形態では、ビデオピクチャ内の位置は、ビデオピクチャのサブピクチャによりカバーされない。幾つかの実施形態では、ビデオピクチャの2つのサブピクチャは、重なり合う領域を有しない。
幾つかの実施形態では、ビデオピクチャのサブピクチャの寸法は、ビデオブロックの寸法に基づき決定される。幾つかの実施形態では、サブピクチャは複数のエレメントを含む。サブピクチャ内のエレメントの幅を示すシンタックスエレメントは、N個のサンプルとして表され、サブピクチャの幅はN個のサンプルに基づき決定される。幾つかの実施形態では、ビデオブロックの幅はN個のサンプルを有する。
幾つかの実施形態では、サブピクチャは複数のエレメントを含む。サブピクチャ内のエレメントの高さを示すシンタックスエレメントは、N個のサンプルとして表され、サブピクチャの高さはN個のサンプルに基づき決定される。幾つかの実施形態では、ビデオブロックの高さはN個のサンプルを有する。
幾つかの実施形態では、ビデオブロックは、コーディングツリーブロック(coding tree block (CTB))又はコーディングツリーユニット(coding tree unit (CTU))である。幾つかの実施形態では、サブピクチャは長方形形状を有する。幾つかの実施形態では、サブピクチャは長方形スライスエレメントを含む。幾つかの実施形態では、サブピクチャは、ビデオの選択された1つ以上のレイヤにのみ適用可能である。幾つかの実施形態では、サブピクチャは、ビットストリーム表現内に設定されたシーケンスパラメータセットの中で定義され、サブピクチャは、対応するシーケンスの中で最高解像度を有するレイヤに適用可能である。幾つかの実施形態では、サブピクチャは、ビットストリーム表現内に設定されたシーケンスパラメータセットの中で定義され、サブピクチャは、対応するシーケンスの中で最低解像度を有するレイヤに適用可能である。幾つかの実施形態では、サブピクチャが適用可能な選択された1つ以上のレイヤは、ビットストリーム表現内の1つ以上のシンタックスエレメントの中でシグナリングされる。幾つかの実施形態では、サブピクチャが適用可能ではない1つ以上のレイヤは、ビットストリーム表現内の1つ以上のシンタックスエレメントの中でシグナリングされる。幾つかの実施形態では、1つ以上のシンタックスエレメントは、ビットストリーム表現内の、シーケンスパラメータセット、ビデオパラメータセット、又はピクチャパラメータセットの中でシグナリングされる。
図12は、本発明の技術によるビデオ処理の方法1200のフローチャート表現である。方法1200は、動作1210で、少なくともビデオピクチャを用いて、ビデオのビデオユニットとビデオのコーディング表現との間の変換を実行するステップを含み、サブピクチャコーディングモード又は解像度変化コーディングモードのうちの1つのみが、ビデオユニットに対して有効である。サブピクチャコーディングモードは、ビデオピクチャが複数のサブピクチャに分割されるモードであり、解像度変化コーディングモードは、ビデオピクチャの解像度が変換中に調整されるモードである。
幾つかの実施形態では、ビデオピクチャは、現在ピクチャ又は参照ピクチャを含む。幾つかの実施形態では、解像度変化コーディングモードは、参照ピクチャ再サンプリング(PRP)モードを含む。幾つかの実施形態では、解像度変化コーディングモードは、動的解像度変換(DRC)モードを含む。幾つかの実施形態では、解像度変化コーディングモードは、適応解像度変換(ARC)モードを含む。
幾つかの実施形態では、ビデオユニットは、ビデオシーケンスを含む。幾つかの実施形態では、解像度変化コーディングモードが許可されない場合に、サブピクチャコーディングモードがコーディングユニットに対して有効であることを示すために、コーディング表現の中にシンタックスエレメントが含まれる。幾つかの実施形態では、サブピクチャコーディングモードが有効であると示すシンタックスエレメントがコーディング表現に含まれる場合、解像度変化コーディングモードは許可されない。幾つかの実施形態では、シンタックスエレメントはsubpics_present_flagを含む。幾つかの実施形態では、シンタックスエレメントが、サブピクチャコーディングモードが有効であると示す場合、ビデオピクチャの幅は、ビデオユニット内のビデオピクチャに対して許容される最大幅に等しく設定される。
図13は、本発明の技術によるビデオ処理の方法1300のフローチャート表現である。方法1300は、動作1310で、少なくともビデオピクチャを用いて、ビデオのビデオユニットとビデオのコーディング表現との間の変換を実行するステップを含み、サブピクチャコーディングモード及び解像度変化コーディングモードの両方が、ビデオユニットに対して有効である。サブピクチャコーディングモードは、ビデオピクチャが複数のサブピクチャに分割されるモードであり、解像度変化コーディングモードは、ビデオピクチャの解像度が変換中に調整されるモードである。
幾つかの実施形態では、ビデオユニットは、ビデオシーケンスを含む。幾つかの実施形態では、解像度変化コーディングモードは、適応解像度変換(ARC)モード、動的解像度変換(DRC)モード、参照ピクチャ再サンプリング(PRP)モード、を含む。
幾つかの実施形態では、ビデオピクチャは複数のブロックを含み、各ブロックはW×Hの寸法を有する。解像度変化コーディングモードに従い調整されたサブピクチャは、K×Wの幅、及びM×Hの高さを有し、K及びMは整数である。幾つかの実施形態では、サブピクチャは、ビデオピクチャの境界に位置しない。幾つかの実施形態では、境界は、右境界又は下境界を含む。
幾つかの実施形態では、ビデオピクチャは複数のビデオブロックを含み、個々のビデオブロックの寸法はビデオピクチャの解像度に基づき調整される。幾つかの実施形態では、コーディング表現は、ビデオブロックの最大寸法を示すシンタックスエレメントを含み、個々のビデオブロックの寸法は、ビデオピクチャの最大寸法及び解像度に基づき調整される。幾つかの実施形態では、個々のビデオブロックの寸法は、シーケンスパラメータセット、ピクチャパラメータセット、又はコーディング表現中のサブピクチャレベルでシグナリングされる。
図14は、本発明の技術によるビデオ処理の方法1400のフローチャート表現である。方法1400は、動作1410で、1つ以上のビデオピクチャを含むビデオと前記ビデオのコーディング表現との間の変換を実行するステップ、を含み、個々のビデオピクチャの寸法は、8以上になるよう制約される。幾つかの実施形態では、寸法は個々のビデオピクチャの幅である。幾つかの実施形態では、寸法は個々のビデオピクチャの高さである。
図15は、本発明の技術によるビデオ処理の方法1500のフローチャート表現である。方法1500は、動作1510で、ルールに従い、ビデオのビデオピクチャとビデオのコーディング表現との間の変換を実行するステップを含む。ビデオピクチャは少なくとも1つのサブピクチャを含み、ルールは、サブピクチャの特性がコーディング表現の中の少なくとも1つのシンタックスエレメントとして表現されることを指定し、少なくとも1つのシンタックスエレメントは、ビデオピクチャ内のサブピクチャグリッドのインデックス値と異なる。
幾つかの実施形態では、特性は、サブピクチャの左上位置を含む。幾つかの実施形態では、特性は、サブピクチャの右下位置を含む。幾つかの実施形態では、特性は、サブピクチャの幅を含む。幾つかの実施形態では、特性は、サブピクチャの高さを含む。幾つかの実施形態では、ビデオピクチャ内のサブピクチャのインデックス値は、ビデオピクチャ内のサブピクチャの最大数より小さい。幾つかの実施形態では、[0,サブピクチャの最大数-1]の範囲にある整数値は、ビデオピクチャ内のサブピクチャのインデックス値と1対1対応を有する。
図16は、本発明の技術によるビデオ処理の方法1600のフローチャート表現である。方法1600は、動作1610で、ルールに従い、ビデオのビデオピクチャとビデオのコーディング表現との間の変換を実行するステップを含む。ビデオピクチャは複数のサブピクチャを含み、各サブピクチャは複数のエレメントを含む。ルールは、サブピクチャ内の個々のエレメントの寸法が制約を満たすことを指定する。
幾つかの実施形態では、制約は、個々のエレメントの幅がT1より小さいことを指定する。幾つかの実施形態では、制約は、個々のエレメントの高さがT2より小さいことを指定する。幾つかの実施形態では、ビデオピクチャは複数のビデオブロックを含み、制約は、個々のエレメントの寸法に基づき決定されたサブピクチャが、変換中に処理される現在ビデオブロックによりカバーされることを指定する。幾つかの実施形態では、現在ビデオブロックによりカバーされるサブピクチャの外部にあるサンプルは、変換のために利用できないと見なされる。幾つかの実施形態では、制約は、個々のエレメントの寸法が、ビデオコーディング標準のプロファイル、レベル、又はティアに基づき決定されることを指定する。幾つかの実施形態では、制約は、個々のビデオブロックの寸法がビデオピクチャの幅に基づき決定されることを指定する。幾つかの実施形態では、個々のビデオブロックの幅は、pic_width_max_in_luma_samples/4+offsetに等しく、pic_width_max_in_luma_samplesはルマサンプルにおける最大ピクチャ幅を表し、offsetは0又は0でない整数である。幾つかの実施形態では、制約は、個々のエレメントの寸法が、ビデオピクチャの高さに基づき決定されることを指定する。幾つかの実施形態では、個々のエレメントの高さは、pic_height_max_in_luma_samples/4+offsetに等しく、pic_height_max_in_luma_samplesはルマサンプルにおける最大ピクチャ高さを表し、offsetは0又は0でない整数である。
幾つかの実施形態では、変換は、ビットストリーム表現からビデオピクチャを生成する。幾つかの実施形態では、変換は、ビデオピクチャからビットストリーム表現を生成する。
図17は、本発明の技術によるビデオ処理の方法1700のフローチャート表現である。方法1700は、動作1710で、ルールに従い、コーディングモードを用いて、複数のサブピクチャを含むピクチャを有するビデオと、ビデオのコーディング表現との間の変換を実行するステップを含む。ルールは、前のサブピクチャに関する特定の格納された情報が、複数のサブピクチャのうちの各々の次のサブピクチャを処理する前に、再設定されることを指定する。
幾つかの実施形態では、特定の格納された情報は、ビデオピクチャ内の現在ブロックがビデオピクチャからのサンプルによりコーディングされるイントラブロックコピーモードのために使用される仮想バッファを含む。幾つかの実施形態では、特定の格納された情報は、ビデオピクチャ内の現在ブロックがそれぞれのサンプル値のパレットを用いてコーディングされるパレットコーディングモードのために使用されるエントリのリストを含む。
図18は、本発明の技術によるビデオ処理の方法1800のフローチャート表現である。方法1800は、動作1810で、ルールに従い、ビデオと前記ビデオのコーディング表現との間の変換において、時間フィルタリング動作を実行するステップを含む。ビデオは複数のビデオピクチャを含み、各ビデオピクチャは複数のサブピクチャを含む。ルールは、ビデオピクチャの現在サブピクチャ内の現在サンプルを時間フィルタリングするために、同じ現在サブピクチャ又は現在サブピクチャに対応する異なるビデオピクチャ内のサブピクチャの範囲内のサンプルのみが利用可能であることを指定する。
図19は、本発明の技術によるビデオ処理の方法1900のフローチャート表現である。方法1900は、動作1910で、ビデオのビデオピクチャ内のブロックとビデオのコーディング表現との間の変換のために、ブロックがビデオピクチャの1つ以上のサブピクチャ境界と交差するかどうかに基づき、ブロックにパーティション方法を適用する方法を決定するステップを含む。方法1900は、動作1920で、決定に基づき変換を実行するステップを更に含む。
幾つかの実施形態では、パーティション方法は、以下:4分木パーティション方法、水平2分木パーティション方法、垂直2分木パーティション方法、水平3分木パーティション方法、垂直3分木パーティション方法、又は非分割方法、のうちの少なくとも1つを含む。幾つかの実施形態では、方法は、境界処理方法がブロックに適用可能かどうかを更に指定する。幾つかの実施形態では、方法は、ブロックがビデオピクチャのサブピクチャの1つ以上の境界に跨がり位置するかどうかに基づき、パーティション方法を示すコーディング表現内のシンタックスエレメントを処理する方法を決定するステップを含む。
図20は、本発明の技術によるビデオ処理の方法2000のフローチャート表現である。方法2000は、動作2010で、ビデオのビデオピクチャとビデオのコーディング表現との間の変換のために、ビデオピクチャのうちの2つのサブ領域を決定するステップを含む。第1サブ領域は、ビデオピクチャの複数のサブピクチャを含み、第2サブ領域は、ビデオピクチャ内のサンプルを維持することを含む。方法2000は、動作2020で、決定に基づき変換を実行するステップを更に含む。
幾つかの実施形態では、第2サブ領域内のサンプルは、ビデオピクチャの任意のサブピクチャ内に位置しない。幾つかの実施形態では、第2サブ領域は、第1サブ領域に関する情報に基づき、変換のために処理される。幾つかの実施形態では、デフォルト値は、ビデオピクチャのサンプル又は領域が第2サブ領域内に位置するかどうかを示すために、変換中に使用される。幾つかの実施形態では、デフォルト値は(max_subpics_minus1+K)に設定され、max_subpics_minus1は、ビデオピクチャ内のサブピクチャの最大数を示し、Kは1より大きい整数である。幾つかの実施形態では、デフォルト値は、ビデオピクチャ内のサブピクチャを表すインデックス値のアレイの中の各要素に割り当てられる。
幾つかの実施形態では、変換は、コーディング表現からビデオを生成する。幾つかの実施形態では、変換は、ビデオからコーディング表現を生成する。
開示した技術の幾つかの実施形態は、ビデオ処理ツール又はモードを有効にすることの決定又は判断を行うことを含む。例では、ビデオ処理ツール又はモードが有効にされると、エンコーダは、ビデオのブロックの処理において該ツール又はモードを使用又は実施するが、必ずしもツール又はモードの使用に基づき結果として生じるビットストリームを変更する必要はない。つまり、ビデオのブロックからビデオのビットストリーム表現への変換は、決定又は判断に基づき有効にされるとき、ビデオ処理ツール又はモードを使用する。別の例では、ビデオ処理ツール又はモードが有効にされると、デコーダは、ビットストリームがビデオ処理ツール又はモードに基づき変更されているという知識により、ビットストリームを処理する。つまり、ビデオのビットストリーム表現からビデオのブロックへの変換は、決定又は判断に基づき有効にされたビデオ処理ツール又はモードを使用して実行される。
開示した技術の幾つかの実施形態は、ビデオ処理ツール又はモードを無効にすることの決定又は判断を行うことを含む。例では、ビデオ処理ツール又はモードが無効にされるとき、エンコーダは、ビデオのブロックをビデオのビットストリーム表現へ変換する際にツール又はモードを使用しない。別の例では、ビデオ処理ツール又はモードが無効にされると、デコーダは、ビットストリームが決定又は判断に基づき有効にされたビデオ処理ツール又はモードを用いて変更されていないという知識により、ビットストリームを処理する。
本願明細書に記載された本開示の及び他のソリューション、例、実施形態、モジュール、及び機能動作は、デジタル電子回路で、又は本願明細書に開示された構造を含む、コンピュータソフトウェア、ファームウェア、又はハードウェア、及びそれらの構造的均等物で、又はそれらの1つ以上の結合で、実装できる。本開示の及び他の実施形態は、1つ以上のコンピュータプログラムプロダクト、例えば、データ処理機器による実行のために又はその動作を制御するために、コンピュータ可読媒体上に符号化されたコンピュータプログラム命令の1つ以上のモジュールとして実装できる。コンピュータ可読媒体は、機械可読記憶装置、機械可読記憶基板、メモリ装置、機械可読伝搬信号に影響を与える物質の組成、又は1つ以上のそれらの組合せであり得る。用語「データ処理機器」は、データを処理するあらゆる機器、装置、及び機械を包含し、例として、プログラマブルプロセッサ、コンピュータ、又は複数のプロセッサ若しくはコンピュータを含む。機器は、ハードウェアに加えて、対象となるコンピュータプログラムの実行環境を生成するコード、例えばプロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、又はそれらの1つ以上の組合せを構成するコードを含むことができる。伝搬信号は、人工的に生成された信号、例えば、適切な受信機への送信のために情報を符号化するために生成された、機械により生成された電気、光、又は電磁気信号である。
コンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、スクリプト、又はコードとしても知られる)は、コンパイルされた又はインタープリットされた言語を含む任意の形式のプログラミング言語で記述でき、それは、スタンドアロンプログラム又はモジュール、コンポーネント、サブルーチン、又はコンピューティング環境内での使用に適する他のユニットを含む任意の形式で展開できる。コンピュータプログラムは、必ずしもファイルシステム内のファイルに対応する必要はない。プログラムは、他のプログラム又はデータ(例えばマークアップ言語文書内に格納された1つ以上のスクリプト)を保持するファイルの一部に、問題のプログラムに専用の単一のファイルに、又は複数の連携ファイル(例えば、1つ以上モジュール、サブプログラム、又はコードの部分を格納するファイル)に、格納できる。コンピュータプログラムは、1つのコンピュータ上で、又は1つの場所に置かれた若しくは複数の場所に分散されて通信ネットワークにより相互接続される複数のコンピュータ上で、実行されるよう展開できる。
本願明細書に記載の処理及びロジックフローは、入力データに作用し及び出力を生成することにより機能を実行する1つ以上のコンピュータプログラムを実行する1つ以上のプログラマブルプロセッサにより実行できる。特定用途論理回路、例えば、FPGA(field programmable gate array)又はASIC(application specific integrated circuit)により、処理及びロジックフローが実行でき、それとして機器が実装できる。
コンピュータプログラムの実行に適するプロセッサは、例えば、汎用及び特定用途向けマイクロプロセッサの両方、及び任意の種類のデジタルコンピュータの任意の1つ以上のプロセッサを含む。通常、プロセッサは、命令及びデータを読み出し専用メモリ又はランダムアクセスメモリ又は両者から受信する。コンピュータの基本的要素は、命令を実行するプロセッサ、及び命令及びデータを格納する1つ以上のメモリ装置である。通常、コンピュータは、データを格納する1つ以上の大容量記憶装置、例えば、磁気、光磁気ディスク、又は光ディスク、も含み、又はそれらからデータを受信し又はそれらへデータを転送するために又は両者のために動作可能に結合される。しかしながら、コンピュータはこのような装置を有する必要はない。コンピュータプログラム命令及びデータを格納するのに適するコンピュータ可読媒体は、例えば半導体メモリ装置、例えばEPROM、EEPROM,及びフラッシュメモリ装置、磁気ディスク、例えば内部ハードディスク又は取り外し可能ディスク、光磁気ディスク、及びCD-ROM及びDVD-ROMディスクを含む、全ての形式の-不揮発性メモリ、媒体、及びメモリ装置を含む。プロセッサ及びメモリは、特定用途向け論理回路により補足され、又はその中に組み込むことができる。
本願明細書は多数の特定事項を含むが、これらは、任意の主題の又は請求され得るものの範囲に対する限定としてではなく、むしろ、特定の技術の特定の実施形態に固有の特徴の説明として考えられるべきである。別個の実装の文脈で本願明細書に記載された特定の特徴は、単一の実施形態において組み合わせることもできる。反対に、単一の実施形態の文脈で記載された種々の特徴は、複数の実施形態の中で別個に又は任意の適切な部分的組み合わせで実装されることもできる。更に、特徴は特定の組み合わせで動作するよう上述され、そのように初めに請求され得るが、請求される組み合わせからの1つ以上の特徴は、幾つかの場合には、組み合わせから切り離されてよく、請求される組み合わせは、部分的組み合わせ又は部分的組み合わせの変形に向けられてよい。
同様に、動作は、図中に特定の順序で示されるが、これは、望ましい結果を達成するために、そのような動作が示された特定の順序で又はシーケンシャルに実行されること、及び全ての図示の動作が実行されること、を要求すると理解されるべきではない。更に、本願明細書に記載された実施形態における種々のシステムコンポーネントの分離は、全ての実施形態においてこのような分離を必要とすると理解されるべきではない。
小数の実装及び例のみが記載され、本願明細書に記載され示されたものに基づき他の実装、拡張、及び変形が行われ得る。

Claims (14)

  1. ビデオデータを処理する方法であって、
    ビデオの第1ピクチャの第1ビデオブロックと前記ビデオのビットストリームとの間の第1変換のために、第1予測モードが前記第1ビデオブロックに適用されると決定するステップと、
    前記第1予測モードのために、前記第1ピクチャのサンプル値のブロックから導出された参照サンプルを含む仮想バッファを維持するステップと、
    前記第1ビデオブロックについて、前記決定に基づき予測サンプルを導出するステップと、
    前記第1ビデオブロックと前記ビットストリームとの間の前記第1変換を実行するステップと、
    を含み、
    前記第1予測モードでは、前記仮想バッファ内のブロックベクトルにより決定された前記参照サンプルは、前記予測サンプルの導出のために使用され、
    ビデオピクチャが複数のサブピクチャに分割されるサブピクチャコーディングモードが前記第1ピクチャに対して有効であり、前記仮想バッファは前記第1ピクチャのサブピクチャを処理する前にリセットされる、方法。
  2. 前記仮想バッファ内の前記参照サンプルは-1になるようリセットされる、請求項1に記載の方法。
  3. 前記ビデオの第2ピクチャの第2ビデオブロックと前記ビットストリームとの間の第2変換のために、第2予測モードが前記第2ビデオブロックに適用されると決定するステップと、
    前記第2予測モードのために、予測子パレットを維持するステップと、
    前記第2予測モードに基づき、前記第2ビデオブロックと前記ビットストリームとの間の前記第2変換を実行するステップと、
    を更に含み、
    前記第2予測モードでは、再構成サンプルは代表カラー値のセットにより表され、前記代表カラー値のセットは、前記ビットストリームに含まれるレット予測子少なくともみ、
    前記サブピクチャコーディングモードは前記第2ピクチャに対して有効であり、前記予測子パレットのエントリリストは、前記第2ピクチャのサブピクチャを処理する前にリセットされる、請求項1又は2に記載の方法。
  4. 予測子パレットのサイズは、前記第2ピクチャの前記サブピクチャを処理する前に、0になるよう設定される、請求項3に記載の方法。
  5. 前記サブピクチャコーディングモードが有効であると示す第1シンタックスエレメントが、前記ビットストリーム内のシーケンスパラメータセットに含まれる、請求項1~4のいずれか一項に記載の方法。
  6. サブピクチャの幅を示すために、第2シンタックスエレメントが前記ビットストリームに含まれ、サブピクチャの高さを示すために、第3シンタックスエレメントが前記ビットストリームに含まれる、請求項1~5のいずれか一項に記載の方法。
  7. サブピクチャの左上位置を示すために、第4シンタックスエレメントが前記ビットストリームに含まれる、請求項1~6のいずれか一項に記載の方法。
  8. 前記ビデオピクチャの2つのサブピクチャは重なり合わない領域を有する、請求項1~7のいずれか一項に記載の方法。
  9. サブピクチャは長方形形状を有するよう制約される、請求項1~8のいずれか一項に記載の方法。
  10. 前記変換は、前記ビデオを前記ビットストリームに符号化することを含む、請求項1~9のいずれか一項に記載の方法。
  11. 前記変換は、前記ビットストリームから前記ビデオを復号することを含む、請求項1~9のいずれか一項に記載の方法。
  12. ビデオデータを処理する機器であって、前記機器はプロセッサと格納された命令を有する非一時的メモリとを含み、前記命令は、前記プロセッサにより実行されると、前記プロセッサに、
    ビデオの第1ピクチャの第1ビデオブロックと前記ビデオのビットストリームとの間の第1変換のために、第1予測モードが前記第1ビデオブロックに適用されると決定させ、
    前記第1予測モードのために、前記第1ピクチャのサンプル値のブロックから導出された参照サンプルを含む仮想バッファを維持させ、
    前記第1ビデオブロックについて、前記決定に基づき予測サンプルを導出させ、
    前記第1ビデオブロックと前記ビットストリームとの間の前記第1変換を実行させ、
    前記第1予測モードでは、前記仮想バッファ内のブロックベクトルにより決定された前記参照サンプルは、前記予測サンプルの導出のために使用され、
    ビデオピクチャが複数のサブピクチャに分割されるサブピクチャコーディングモードが前記第1ピクチャに対して有効であり、前記仮想バッファは前記第1ピクチャのサブピクチャを処理する前にリセットされる、機器。
  13. 命令を格納している非一時的コンピュータ可読記憶媒体であって、前記命令はプロセッサに、
    ビデオの第1ピクチャの第1ビデオブロックと前記ビデオのビットストリームとの間の第1変換のために、第1予測モードが前記第1ビデオブロックに適用されると決定させ、
    前記第1予測モードのために、前記第1ピクチャのサンプル値のブロックから導出された参照サンプルを含む仮想バッファを維持させ、
    前記第1ビデオブロックについて、前記決定に基づき予測サンプルを導出させ、
    前記第1ビデオブロックと前記ビットストリームとの間の前記第1変換を実行させ、
    前記第1予測モードでは、前記仮想バッファ内のブロックベクトルにより決定された前記参照サンプルは、前記予測サンプルの導出のために使用され、
    ビデオピクチャが複数のサブピクチャに分割されるサブピクチャコーディングモードが前記第1ピクチャに対して有効であり、前記仮想バッファは前記第1ピクチャのサブピクチャを処理する前にリセットされる、非一時的コンピュータ可読記憶媒体。
  14. ビデオのビットストリームを格納する方法であって、前記方法は、
    ビデオの第1ピクチャの第1ビデオブロックについて、第1予測モードが前記第1ビデオブロックに適用されると決定するステップと、
    前記第1予測モードのために、前記第1ピクチャのサンプル値のブロックから導出された参照サンプルを含む仮想バッファを維持するステップと、
    前記第1ビデオブロックについて、前記決定に基づき予測サンプルを導出するステップと、
    前記決定に基づき、前記ビットストリームを生成するステップと、
    前記ビットストリームを非一時的コンピュータ可読記録媒体に格納するステップと、
    を含み、
    前記第1予測モードでは、前記仮想バッファ内のブロックベクトルにより決定された前記参照サンプルは、前記予測サンプルの導出のために使用され、
    ビデオピクチャが複数のサブピクチャに分割されるサブピクチャコーディングモードが前記第1ピクチャに対して有効であり、前記仮想バッファは前記第1ピクチャのサブピクチャを処理する前にリセットされる、方法
JP2022508461A 2019-08-10 2020-08-10 サブピクチャ復号のバッファ管理 Active JP7478225B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN2019100114 2019-08-10
CNPCT/CN2019/100114 2019-08-10
PCT/CN2020/108182 WO2021027776A1 (en) 2019-08-10 2020-08-10 Buffer management in subpicture decoding

Publications (2)

Publication Number Publication Date
JP2022543706A JP2022543706A (ja) 2022-10-13
JP7478225B2 true JP7478225B2 (ja) 2024-05-02

Family

ID=74570268

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2022508461A Active JP7478225B2 (ja) 2019-08-10 2020-08-10 サブピクチャ復号のバッファ管理
JP2022508460A Active JP7372443B2 (ja) 2019-08-10 2020-08-10 サブピクチャに依存するビデオビットストリーム内のシグナリング
JP2023180083A Pending JP2023182800A (ja) 2019-08-10 2023-10-19 サブピクチャに依存するビデオビットストリーム内のシグナリング

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2022508460A Active JP7372443B2 (ja) 2019-08-10 2020-08-10 サブピクチャに依存するビデオビットストリーム内のシグナリング
JP2023180083A Pending JP2023182800A (ja) 2019-08-10 2023-10-19 サブピクチャに依存するビデオビットストリーム内のシグナリング

Country Status (8)

Country Link
US (5) US11553177B2 (ja)
EP (3) EP4307665A3 (ja)
JP (3) JP7478225B2 (ja)
KR (2) KR20220042125A (ja)
CN (5) CN114208165B (ja)
BR (1) BR112022002493A2 (ja)
MX (1) MX2022001465A (ja)
WO (4) WO2021027776A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021013239A1 (en) 2019-07-25 2021-01-28 Beijing Bytedance Network Technology Co., Ltd. Size restriction for intra-block copy virtual buffer
KR20220042125A (ko) 2019-08-10 2022-04-04 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 서브픽처 디코딩에서의 버퍼 관리
WO2021043299A1 (en) 2019-09-05 2021-03-11 Beijing Bytedance Network Technology Co., Ltd. Range constrains for block vector in intra-block copy mode
CN114556920A (zh) * 2019-09-19 2022-05-27 Vid拓展公司 用于通用视频编码的系统和方法
CN117459723A (zh) * 2019-09-23 2024-01-26 北京字节跳动网络技术有限公司 基于虚拟管线数据单元设置帧内块复制虚拟缓冲区
WO2021060834A1 (ko) * 2019-09-24 2021-04-01 엘지전자 주식회사 서브픽처 기반 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
JP7322290B2 (ja) 2019-10-02 2023-08-07 北京字節跳動網絡技術有限公司 ビデオビットストリームにおけるサブピクチャシグナリングのための構文
JP7482220B2 (ja) 2019-10-18 2024-05-13 北京字節跳動網絡技術有限公司 サブピクチャのパラメータセットシグナリングにおける構文制約
JP7395005B2 (ja) 2020-02-24 2023-12-08 バイトダンス インコーポレイテッド サブピクチャの高さの導出
WO2021178501A1 (en) 2020-03-03 2021-09-10 Bytedance Inc. Controlling a scaling process using slice header signaling
WO2021185306A1 (en) 2020-03-18 2021-09-23 Beijing Bytedance Network Technology Co., Ltd. Intra block copy buffer and palette predictor update
JP2023518494A (ja) * 2020-03-23 2023-05-01 北京字節跳動網絡技術有限公司 アフィンマージおよびアフィン動きベクトル予測モードの予測微調整
US20220394309A1 (en) * 2021-05-20 2022-12-08 Lemon Inc. On Padding Methods For Neural Network-Based In-Loop Filter
US11949863B2 (en) * 2021-08-02 2024-04-02 Tencent America LLC Geometric partition mode with intra block copy

Family Cites Families (240)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6047112A (en) 1992-06-30 2000-04-04 Discovision Associates Technique for initiating processing of a data stream of encoded video information
GB2382940A (en) 2001-11-27 2003-06-11 Nokia Corp Encoding objects and background blocks
FI114679B (fi) 2002-04-29 2004-11-30 Nokia Corp Satunnaisaloituspisteet videokoodauksessa
US20040177383A1 (en) 2003-01-24 2004-09-09 Chyron Corporation Embedded graphics metadata
JP3967691B2 (ja) * 2003-03-31 2007-08-29 株式会社東芝 情報記憶媒体と情報再生装置と情報記録再生装置
KR100983268B1 (ko) * 2003-07-21 2010-09-24 엘지전자 주식회사 트릭 플레이시 서브픽쳐 표시 방법
CN100502511C (zh) 2004-09-14 2009-06-17 华为技术有限公司 用于分数像素精度运动预测的插值图像内存组织方法
KR20080066784A (ko) 2005-10-11 2008-07-16 노키아 코포레이션 규모가변적 비디오 코딩을 위한 효율적 디코딩 화상 버퍼관리
US7688333B2 (en) 2007-02-28 2010-03-30 Lsi Corporation Method and/or apparatus for color space reduction for transcoding subpicture elements
WO2008134482A1 (en) 2007-04-26 2008-11-06 Polycom, Inc. De-blocking filter arrangements
KR100891768B1 (ko) * 2007-05-02 2009-04-07 삼성전자주식회사 모션 벡터 탐색 방법
CN101668219B (zh) * 2008-09-02 2012-05-23 华为终端有限公司 3d视频通信方法、发送设备和系统
US8879637B2 (en) 2008-10-06 2014-11-04 Lg Electronics Inc. Method and an apparatus for processing a video signal by which coding efficiency of a video signal can be raised by using a mixed prediction mode in predicting different macroblock sizes
WO2010041855A2 (en) * 2008-10-06 2010-04-15 Lg Electronics Inc. A method and an apparatus for processing a video signal
KR20150013776A (ko) 2010-04-09 2015-02-05 미쓰비시덴키 가부시키가이샤 동화상 부호화 장치 및 동화상 복호 장치
US8988531B2 (en) * 2010-07-08 2015-03-24 Texas Instruments Incorporated Method and apparatus for sub-picture based raster scanning coding order
US10327008B2 (en) 2010-10-13 2019-06-18 Qualcomm Incorporated Adaptive motion vector resolution signaling for video coding
CN101990103B (zh) 2010-11-10 2013-01-16 香港应用科技研究院有限公司 用于多视点视频编码的方法和装置
US20120294353A1 (en) 2011-05-16 2012-11-22 Mediatek Inc. Apparatus and Method of Sample Adaptive Offset for Luma and Chroma Components
US9641866B2 (en) 2011-08-18 2017-05-02 Qualcomm Incorporated Applying partition-based filters
CN107483925B (zh) 2011-09-09 2020-06-19 株式会社Kt 用于解码视频信号的方法
US9131245B2 (en) 2011-09-23 2015-09-08 Qualcomm Incorporated Reference picture list construction for video coding
US9699457B2 (en) 2011-10-11 2017-07-04 Qualcomm Incorporated Most probable transform for intra prediction coding
US9807403B2 (en) 2011-10-21 2017-10-31 Qualcomm Incorporated Adaptive loop filtering for chroma components
CN103891292B (zh) 2011-10-24 2018-02-02 寰发股份有限公司 视频数据环路滤波处理方法及其装置
US9584819B2 (en) 2011-10-24 2017-02-28 Qualcomm Incorporated Grouping of tiles for video coding
US9253481B2 (en) 2012-01-13 2016-02-02 Qualcomm Incorporated Determining contexts for coding transform coefficient data in video coding
US9451252B2 (en) * 2012-01-14 2016-09-20 Qualcomm Incorporated Coding parameter sets and NAL unit headers for video coding
US9332259B2 (en) 2012-01-18 2016-05-03 Qualcomm Incorporated Indication of use of wavefront parallel processing in video coding
US9538200B2 (en) 2012-01-19 2017-01-03 Qualcomm Incorporated Signaling of deblocking filter parameters in video coding
US10244246B2 (en) * 2012-02-02 2019-03-26 Texas Instruments Incorporated Sub-pictures for pixel rate balancing on multi-core platforms
EP2735162A4 (en) 2012-02-03 2015-03-18 Mediatek Inc METHOD AND DEVICE FOR GRINDING FILTRATION OF CROSS-TILE OR DISC BOLTS
US9525861B2 (en) 2012-03-14 2016-12-20 Qualcomm Incorporated Disparity vector prediction in video coding
US10200709B2 (en) 2012-03-16 2019-02-05 Qualcomm Incorporated High-level syntax extensions for high efficiency video coding
US9578326B2 (en) 2012-04-04 2017-02-21 Qualcomm Incorporated Low-delay video buffering in video coding
US20130294524A1 (en) 2012-05-04 2013-11-07 Qualcomm Incorporated Transform skipping and lossless coding unification
US9762903B2 (en) 2012-06-01 2017-09-12 Qualcomm Incorporated External pictures in video coding
US20130336406A1 (en) 2012-06-14 2013-12-19 Qualcomm Incorporated Redundancy removal for merge/skip mode motion information candidate list construction
US9800869B2 (en) 2012-06-15 2017-10-24 Google Technology Holdings LLC Method and apparatus for efficient slice header processing
US20140003504A1 (en) * 2012-07-02 2014-01-02 Nokia Corporation Apparatus, a Method and a Computer Program for Video Coding and Decoding
US10110890B2 (en) * 2012-07-02 2018-10-23 Sony Corporation Video coding system with low delay and method of operation thereof
US9602827B2 (en) * 2012-07-02 2017-03-21 Qualcomm Incorporated Video parameter set including an offset syntax element
US9351005B2 (en) 2012-09-24 2016-05-24 Qualcomm Incorporated Bitstream conformance test in video coding
US8989508B2 (en) 2012-09-28 2015-03-24 Sharp Kabushiki Kaisha Electronic device for signaling a sub-picture buffer parameter
US9491457B2 (en) 2012-09-28 2016-11-08 Qualcomm Incorporated Signaling of regions of interest and gradual decoding refresh in video coding
EP2904800A4 (en) 2012-10-05 2016-05-04 Mediatek Singapore Pte Ltd METHOD AND DEVICE FOR MOTION VECTOR REMOVAL FOR 3D VIDEO CODING
CN104885464A (zh) 2012-12-26 2015-09-02 索尼公司 图像处理装置和方法
US9674542B2 (en) 2013-01-02 2017-06-06 Qualcomm Incorporated Motion vector prediction for video coding
CN105144720B (zh) 2013-01-04 2018-12-28 Ge视频压缩有限责任公司 高效可伸缩编码概念
WO2014106692A1 (en) * 2013-01-07 2014-07-10 Nokia Corporation Method and apparatus for video coding and decoding
US20140218473A1 (en) * 2013-01-07 2014-08-07 Nokia Corporation Method and apparatus for video coding and decoding
US9445130B2 (en) 2013-01-09 2016-09-13 Qualcomm Incorporated Blockiness metric for large HEVC block artifacts
WO2014107853A1 (en) 2013-01-09 2014-07-17 Mediatek Singapore Pte. Ltd. Methods for disparity vector derivation
RU2625560C2 (ru) * 2013-02-20 2017-07-14 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Устройство и способ кодирования или декодирования аудиосигнала с использованием перекрытия, зависящего от местоположения перехода
US9294776B2 (en) * 2013-03-05 2016-03-22 Qualcomm Incorporated Parallel processing for video coding
US10057594B2 (en) 2013-04-02 2018-08-21 Vid Scale, Inc. Enhanced temporal motion vector prediction for scalable video coding
US9591321B2 (en) 2013-04-07 2017-03-07 Dolby International Ab Signaling change in output layer sets
US9565437B2 (en) 2013-04-08 2017-02-07 Qualcomm Incorporated Parameter set designs for video coding extensions
US10015515B2 (en) 2013-06-21 2018-07-03 Qualcomm Incorporated Intra prediction from a predictive block
US9756335B2 (en) 2013-07-02 2017-09-05 Qualcomm Incorporated Optimizations on inter-layer prediction signalling for multi-layer video coding
JP2015015575A (ja) 2013-07-04 2015-01-22 シャープ株式会社 画像復号装置、画像符号化装置、画像復号方法、画像符号化方法、画像復号プログラムおよび画像符号化プログラム
CN105531999B (zh) 2013-07-09 2019-08-09 诺基亚技术有限公司 涉及用于信号传输运动信息的语法的视频编码方法及装置
JP6505026B2 (ja) 2013-07-10 2019-04-24 シャープ株式会社 符号化方法
WO2015003383A1 (en) 2013-07-12 2015-01-15 Mediatek Singapore Pte. Ltd. Methods for inter-view motion prediction
US10250897B2 (en) * 2013-07-14 2019-04-02 Sharp Kabushiki Kaisha Tile alignment signaling and conformance constraints
CN105379273B (zh) 2013-07-14 2019-03-15 夏普株式会社 对来自比特流的视频进行解码的方法和设备
GB2516424A (en) 2013-07-15 2015-01-28 Nokia Corp A method, an apparatus and a computer program product for video coding and decoding
WO2015006951A1 (en) 2013-07-18 2015-01-22 Mediatek Singapore Pte. Ltd. Methods for fast encoder decision
GB2516824A (en) * 2013-07-23 2015-02-11 Nokia Corp An apparatus, a method and a computer program for video coding and decoding
US20150078457A1 (en) 2013-09-13 2015-03-19 Qualcomm Incorporated Representation format signaling in multi-layer video coding
WO2015052942A1 (en) 2013-10-11 2015-04-16 Sharp Kabushiki Kaisha Signaling information for coding
US20150103924A1 (en) 2013-10-13 2015-04-16 Sharp Laboratories Of America, Inc. On operation of decoded picture buffer for interlayer pictures
WO2015056941A1 (ko) * 2013-10-14 2015-04-23 한국전자통신연구원 다계층 기반의 영상 부호화/복호화 방법 및 장치
KR20150057591A (ko) 2013-11-20 2015-05-28 주식회사 디오텍 동영상파일에 대한 자막데이터 생성방법 및 장치
US9912966B2 (en) * 2014-01-03 2018-03-06 Nokia Technologies Oy Parameter set coding
US10567804B2 (en) 2014-01-08 2020-02-18 Qualcomm Incorporated Carriage of HEVC extension bitstreams and buffer model with MPEG-2 systems
US10531116B2 (en) * 2014-01-09 2020-01-07 Qualcomm Incorporated Adaptive motion vector resolution signaling for video coding
US20150271515A1 (en) * 2014-01-10 2015-09-24 Qualcomm Incorporated Block vector coding for intra block copy in video coding
US20150215631A1 (en) 2014-01-23 2015-07-30 Broadcom Corporation Parallel Coding with Overlapped Tiles
JP6280679B2 (ja) * 2014-02-24 2018-02-14 日本放送協会 フレーム間引き装置、フレーム補間装置、映像符号化装置、映像復号装置、及びこれらのプログラム
US10404988B2 (en) 2014-03-16 2019-09-03 Vid Scale, Inc. Method and apparatus for the signaling of lossless video coding
WO2015140401A1 (en) * 2014-03-17 2015-09-24 Nokia Technologies Oy An apparatus, a method and a computer program for video coding and decoding
CN108989815B9 (zh) 2014-03-19 2021-06-04 株式会社Kt 针对多视图视频信号生成合并候选列表的方法及解码装置
US9712871B2 (en) 2014-05-01 2017-07-18 Qualcomm Incorporated Determination bitstream decoding capability in video coding
US10750198B2 (en) 2014-05-22 2020-08-18 Qualcomm Incorporated Maximum palette parameters in palette-based video coding
WO2016008157A1 (en) 2014-07-18 2016-01-21 Mediatek Singapore Pte. Ltd. Methods for motion compensation using high order motion model
KR20170066457A (ko) * 2014-09-26 2017-06-14 브이아이디 스케일, 인크. 시간적 블록 벡터 예측을 갖는 인트라 블록 카피 코딩
CN107079164B (zh) 2014-09-30 2020-07-10 寰发股份有限公司 用于视频编码的自适应运动向量分辨率的方法
US9800898B2 (en) 2014-10-06 2017-10-24 Microsoft Technology Licensing, Llc Syntax structures indicating completion of coded regions
WO2016056398A1 (ja) 2014-10-06 2016-04-14 ソニー株式会社 画像処理装置および方法
US9918105B2 (en) 2014-10-07 2018-03-13 Qualcomm Incorporated Intra BC and inter unification
GB2531993B (en) 2014-10-14 2018-04-25 Canon Kk Description of image composition with HEVC still image file format
KR102128216B1 (ko) * 2014-11-20 2020-06-30 에이치에프아이 이노베이션 인크. 모션 벡터 및 블록 벡터 해상도 제어의 방법
KR102150979B1 (ko) 2014-12-19 2020-09-03 에이치에프아이 이노베이션 인크. 비디오 및 이미지 코딩에서의 비-444 색채 포맷을 위한 팔레트 기반 예측의 방법
US11477477B2 (en) 2015-01-26 2022-10-18 Qualcomm Incorporated Sub-prediction unit based advanced temporal motion vector prediction
RU2686559C2 (ru) 2015-01-29 2019-04-29 Кэнон Кабусики Кайся Инициализатор предсказателя палитры при кодировании или декодировании самостоятельных кодируемых структур
US20160234522A1 (en) * 2015-02-05 2016-08-11 Microsoft Technology Licensing, Llc Video Decoding
CN104702963B (zh) 2015-02-13 2017-11-24 北京大学 一种自适应环路滤波的边界处理方法及装置
US10205968B2 (en) * 2015-02-13 2019-02-12 Mediatek Inc. Method and apparatus for palette index coding in video and image compression
US10362331B2 (en) * 2015-03-02 2019-07-23 Hfi Innovation Inc. Method and apparatus for intraBC mode with fractional-pel block vector resolution in video coding
WO2016172395A1 (en) * 2015-04-21 2016-10-27 Arris Enterprises Llc Scalable video coding system with parameter signaling
US10200713B2 (en) * 2015-05-11 2019-02-05 Qualcomm Incorporated Search region determination for inter coding within a particular picture of video data
CN109005407B (zh) 2015-05-15 2023-09-01 华为技术有限公司 视频图像编码和解码的方法、编码设备和解码设备
JP2017017629A (ja) * 2015-07-03 2017-01-19 富士通株式会社 動画像符号化装置、動画像符号化方法、及びプログラム
US11146794B2 (en) * 2015-07-27 2021-10-12 Mediatek Inc. Method of system for video coding using intra block copy mode
EP3338454A1 (en) 2015-08-20 2018-06-27 Koninklijke KPN N.V. Forming one or more tile streams on the basis of one or more video streams
US10375413B2 (en) 2015-09-28 2019-08-06 Qualcomm Incorporated Bi-directional optical flow for video coding
CN106559669B (zh) 2015-09-29 2018-10-09 华为技术有限公司 预测图像编解码方法及装置
US10715816B2 (en) 2015-11-11 2020-07-14 Apple Inc. Adaptive chroma downsampling and color space conversion techniques
US20190158870A1 (en) 2016-01-07 2019-05-23 Mediatek Inc. Method and apparatus for affine merge mode prediction for video coding system
MY201069A (en) 2016-02-05 2024-02-01 Hfi Innovation Inc Method and apparatus of motion compensation based on bi-directional optical flow techniques for video coding
CN118784881A (zh) * 2016-02-09 2024-10-15 弗劳恩霍夫应用研究促进协会 解码器、编码器、方法、网络设备以及可读存储介质
US10349067B2 (en) 2016-02-17 2019-07-09 Qualcomm Incorporated Handling of end of bitstream NAL units in L-HEVC file format and improvements to HEVC and L-HEVC tile tracks
WO2017147765A1 (en) 2016-03-01 2017-09-08 Mediatek Inc. Methods for affine motion compensation
SG11201806865YA (en) 2016-03-15 2018-09-27 Mediatek Inc Method and apparatus of video coding with affine motion compensation
US20170272758A1 (en) 2016-03-16 2017-09-21 Mediatek Inc. Video encoding method and apparatus using independent partition coding and associated video decoding method and apparatus
WO2017171107A1 (ko) 2016-03-28 2017-10-05 엘지전자(주) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
CN116156163A (zh) 2016-03-30 2023-05-23 韩国电子通信研究院 使用画面划分信息对视频进行编码和解码的方法和设备
US10834419B2 (en) 2016-04-13 2020-11-10 Qualcomm Incorporated Conformance constraint for collocated reference index in video coding
KR20180129860A (ko) 2016-04-25 2018-12-05 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측 방법 및 장치
US10560718B2 (en) 2016-05-13 2020-02-11 Qualcomm Incorporated Merge candidates for motion vector prediction for video coding
US10419755B2 (en) 2016-05-16 2019-09-17 Qualcomm Incorporated Confusion of multiple filters in adaptive loop filtering in video coding
US10560712B2 (en) 2016-05-16 2020-02-11 Qualcomm Incorporated Affine motion prediction for video coding
CA3025490A1 (en) 2016-05-28 2017-12-07 Mediatek Inc. Method and apparatus of current picture referencing for video coding using affine motion compensation
CN107566848B (zh) * 2016-06-30 2020-04-14 华为技术有限公司 编解码的方法及装置
CN107801039B (zh) * 2016-08-30 2020-04-14 华为技术有限公司 运动补偿预测方法和装置
US10419757B2 (en) 2016-08-31 2019-09-17 Qualcomm Incorporated Cross-component filter
US10462462B2 (en) 2016-09-29 2019-10-29 Qualcomm Incorporated Motion vector difference coding technique for video coding
US20180098090A1 (en) 2016-10-04 2018-04-05 Mediatek Inc. Method and Apparatus for Rearranging VR Video Format and Constrained Encoding Parameters
US10448010B2 (en) 2016-10-05 2019-10-15 Qualcomm Incorporated Motion vector prediction for affine motion models in video coding
CN109983773A (zh) 2016-11-29 2019-07-05 联发科技股份有限公司 用于合并模式推导的视频编解码方法和装置
AU2016273973A1 (en) * 2016-12-16 2018-07-05 Canon Kabushiki Kaisha Transcode PCL delta-row compressed image to edges
CN110115032B (zh) 2016-12-22 2021-07-20 联发科技股份有限公司 用于视频编解码的运动细化的方法以及装置
US10911761B2 (en) 2016-12-27 2021-02-02 Mediatek Inc. Method and apparatus of bilateral template MV refinement for video coding
WO2018125972A1 (en) 2016-12-28 2018-07-05 Arris Enterprises Llc Adaptive unequal weight planar prediction
US10931969B2 (en) 2017-01-04 2021-02-23 Qualcomm Incorporated Motion vector reconstructions for bi-directional optical flow (BIO)
US20180199057A1 (en) 2017-01-12 2018-07-12 Mediatek Inc. Method and Apparatus of Candidate Skipping for Predictor Refinement in Video Coding
US10523964B2 (en) 2017-03-13 2019-12-31 Qualcomm Incorporated Inter prediction refinement based on bi-directional optical flow (BIO)
US10701390B2 (en) 2017-03-14 2020-06-30 Qualcomm Incorporated Affine motion information derivation
US20180310017A1 (en) 2017-04-21 2018-10-25 Mediatek Inc. Sub-prediction unit temporal motion vector prediction (sub-pu tmvp) for video coding
KR102435881B1 (ko) 2017-05-26 2022-08-24 에스케이텔레콤 주식회사 영상 부호화 또는 복호화하기 위한 장치 및 방법
CN107277316B (zh) 2017-06-12 2020-05-12 京东方科技集团股份有限公司 显示装置及其制造方法
US10904565B2 (en) 2017-06-23 2021-01-26 Qualcomm Incorporated Memory-bandwidth-efficient design for bi-directional optical flow (BIO)
EP3422724B1 (en) * 2017-06-26 2024-05-01 Nokia Technologies Oy An apparatus, a method and a computer program for omnidirectional video
CN117478884A (zh) 2017-07-03 2024-01-30 Vid拓展公司 用于视频编解码的设备、方法
KR20240038175A (ko) 2017-07-06 2024-03-22 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 분할된 비디오 스트리밍 개념
US10483493B2 (en) 2017-08-01 2019-11-19 Apple Inc. Electronic device having display with thin-film encapsulation
US10856003B2 (en) 2017-10-03 2020-12-01 Qualcomm Incorporated Coding affine prediction motion information for video coding
RU2741507C1 (ru) * 2017-10-09 2021-01-26 Нокиа Текнолоджиз Ой Устройство и способ для кодирования и декодирования видео
US11877001B2 (en) 2017-10-10 2024-01-16 Qualcomm Incorporated Affine prediction in video coding
US20190116376A1 (en) 2017-10-12 2019-04-18 Qualcomm Incorporated Motion vector predictors using affine motion model in video coding
JP2021016016A (ja) 2017-10-20 2021-02-12 シャープ株式会社 動画像符号化装置及び動画像復号装置
US10776688B2 (en) 2017-11-06 2020-09-15 Nvidia Corporation Multi-frame video interpolation using optical flow
US20190141320A1 (en) 2017-11-07 2019-05-09 Qualcomm Incorporated Enhanced reference picture management in video coding
US11889100B2 (en) 2017-11-14 2024-01-30 Qualcomm Incorporated Affine motion vector prediction in video coding
CN109996072B (zh) * 2018-01-03 2021-10-15 华为技术有限公司 视频图像的处理方法及装置
US11388398B2 (en) 2018-01-11 2022-07-12 Qualcomm Incorporated Video coding using local illumination compensation
US10757417B2 (en) 2018-01-20 2020-08-25 Qualcomm Incorporated Affine motion compensation in video coding
KR20230044333A (ko) 2018-01-25 2023-04-03 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 효율적인 서브 픽처 추출
US11012715B2 (en) * 2018-02-08 2021-05-18 Qualcomm Incorporated Intra block copy for video coding
WO2019169339A1 (en) 2018-03-01 2019-09-06 Arris Enterprises Llc System and method of motion information storage for video coding and signaling
JP2021517797A (ja) 2018-04-01 2021-07-26 エルジー エレクトロニクス インコーポレイティド アフィン動き予測に基づく映像コーディング方法及び装置
CN116708840A (zh) 2018-04-03 2023-09-05 英迪股份有限公司 对图像解码和编码的方法、非暂态计算机可读存储介质
RU2020135518A (ru) 2018-04-06 2022-04-29 Вид Скейл, Инк. Метод двунаправленного оптического потока с упрощенным выведением градиента
EP3777179A1 (en) 2018-04-12 2021-02-17 ARRIS Enterprises LLC Motion information storage for video coding and signaling
US10873748B2 (en) 2018-05-12 2020-12-22 Qualcomm Incorporated Storage of high precision motion vectors in video coding
WO2019244117A1 (en) 2018-06-21 2019-12-26 Beijing Bytedance Network Technology Co., Ltd. Unified constrains for the merge affine mode and the non-merge affine mode
KR20210029160A (ko) 2018-06-27 2021-03-15 브이아이디 스케일, 인크. 디코더측 모션 미세 조정의 코딩 지연을 줄이기 위한 방법 및 장치
CN110662046B (zh) 2018-06-29 2022-03-25 北京字节跳动网络技术有限公司 视频处理方法、装置和可读存储介质
TWI750486B (zh) 2018-06-29 2021-12-21 大陸商北京字節跳動網絡技術有限公司 運動資訊共用的限制
WO2020006304A1 (en) 2018-06-29 2020-01-02 Vid Scale, Inc. Adaptive control point selection for affine motion model based video coding
CN110677679B (zh) 2018-07-01 2022-07-26 北京字节跳动网络技术有限公司 依赖形状的帧内编码
KR20210024487A (ko) 2018-07-01 2021-03-05 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 효율적인 아핀 병합 모션 벡터 유도
EP4307679A3 (en) 2018-07-02 2024-06-19 Beijing Bytedance Network Technology Co., Ltd. Luts with intra prediction modes and intra mode prediction from non-adjacent blocks
KR102545728B1 (ko) 2018-07-16 2023-06-20 엘지전자 주식회사 서브블록 단위의 시간적 움직임 정보 예측을 위한 인터 예측 방법 및 그 장치
WO2020017892A1 (ko) 2018-07-17 2020-01-23 엘지전자 주식회사 서브블록 단위의 시간적 움직임 벡터 예측을 위한 방법 및 그 장치
CN110809165B (zh) 2018-08-04 2022-07-26 北京字节跳动网络技术有限公司 仿射的运动矢量差精度
EP4325859A3 (en) 2018-09-19 2024-05-15 Beijing Bytedance Network Technology Co., Ltd. Syntax reuse for affine mode with adaptive motion vector resolution
US11546605B2 (en) 2018-09-20 2023-01-03 Electronics And Telecommunications Research Institute Image encoding/decoding method and device, and recording medium storing bitstream
KR20210058947A (ko) 2018-09-20 2021-05-24 샤프 가부시키가이샤 비디오 코딩에서 파라미터들을 시그널링하기 위한 시스템들 및 방법들
GB2577318B (en) 2018-09-21 2021-03-10 Canon Kk Video coding and decoding
EP3834418A1 (en) 2018-09-23 2021-06-16 Beijing Bytedance Network Technology Co. Ltd. Modification of motion vector with adaptive motion vector resolution
CN110944207B (zh) 2018-09-23 2023-12-08 北京字节跳动网络技术有限公司 仿射模型的表示
CN110944208B (zh) 2018-09-23 2023-05-30 北京字节跳动网络技术有限公司 仿射模式的复杂度降低
TW202029755A (zh) 2018-09-26 2020-08-01 美商Vid衡器股份有限公司 視訊編碼雙預測
US10999589B2 (en) 2018-10-04 2021-05-04 Tencent America LLC Method and apparatus for video coding
CN118175301A (zh) 2018-10-08 2024-06-11 Lg电子株式会社 图像解码方法、图像编码方法、存储介质和发送方法
CN111083491B (zh) 2018-10-22 2024-09-20 北京字节跳动网络技术有限公司 细化运动矢量的利用
WO2020084470A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Storage of motion parameters with clipping for affine mode
WO2020084461A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Restrictions on decoder side motion vector derivation based on coding information
WO2020084502A1 (en) 2018-10-23 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Video processing using local illumination compensation
WO2020093999A1 (en) 2018-11-05 2020-05-14 Beijing Bytedance Network Technology Co., Ltd. Inter prediction with refinement in video processing
EP3861728A4 (en) 2018-11-06 2022-04-06 Beijing Bytedance Network Technology Co., Ltd. COMPLEXITY REDUCTION IN A DERIVATION OF PARAMETERS FOR AN INTRA PREDICTION
CN109600611B (zh) 2018-11-09 2021-07-13 北京达佳互联信息技术有限公司 环路滤波方法、环路滤波装置、电子设备和可读介质
CN112997487B (zh) 2018-11-15 2024-07-09 北京字节跳动网络技术有限公司 仿射模式与其他帧间编解码工具之间的协调
WO2020098812A1 (en) 2018-11-16 2020-05-22 Beijing Bytedance Network Technology Co., Ltd. Pruning method for history-based affine parameters
CN113039780B (zh) 2018-11-17 2023-07-28 北京字节跳动网络技术有限公司 视频处理中用运动矢量差的Merge
CN113170171B (zh) 2018-11-20 2024-04-12 北京字节跳动网络技术有限公司 组合帧间帧内预测模式的预测细化
US11146810B2 (en) 2018-11-27 2021-10-12 Qualcomm Incorporated Decoder-side motion vector refinement
CN113170167A (zh) 2018-11-29 2021-07-23 北京字节跳动网络技术有限公司 块内拷贝模式中的标志指示方法
US11627310B2 (en) 2019-01-02 2023-04-11 Lg Electronics Inc. Affine motion prediction-based video decoding method and device using subblock-based temporal merge candidate in video coding system
CN116647694A (zh) 2019-01-02 2023-08-25 北京大学 候选mv列表构建方法和装置
EP3906677A4 (en) 2019-01-02 2022-10-19 Nokia Technologies Oy DEVICE, METHOD AND COMPUTER PROGRAM FOR VIDEO ENCODING AND DECODING
JP7404373B2 (ja) 2019-01-09 2023-12-25 ホアウェイ・テクノロジーズ・カンパニー・リミテッド ビデオエンコーダ、ビデオデコーダ、および対応する方法
CN113439444A (zh) 2019-02-02 2021-09-24 北京字节跳动网络技术有限公司 用于仿射的多hmvp
GB201902829D0 (en) 2019-03-01 2019-04-17 Canon Kk Method and apparatus for encoding and decoding a video bitsream for merging regions of interest
CN113557744A (zh) * 2019-03-11 2021-10-26 华为技术有限公司 视频译码中的分块级滤波
US20200296405A1 (en) 2019-03-14 2020-09-17 Qualcomm Incorporated Affine motion compensation refinement using optical flow
KR102659481B1 (ko) 2019-03-17 2024-04-23 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 광학 흐름에 기초한 예측 정제의 계산
WO2020191034A1 (en) 2019-03-18 2020-09-24 Tencent America LLC Method and apparatus for video coding
KR102609947B1 (ko) 2019-04-02 2023-12-04 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 양방향 광학 흐름 기반 비디오 코딩 및 디코딩
KR102610709B1 (ko) 2019-04-02 2023-12-05 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 디코더 측 움직임 벡터 유도
CN113711609B (zh) 2019-04-19 2023-12-01 北京字节跳动网络技术有限公司 利用光流的预测细化过程中的增量运动矢量
CN113711608B (zh) 2019-04-19 2023-09-01 北京字节跳动网络技术有限公司 利用光流的预测细化过程的适用性
WO2020211864A1 (en) 2019-04-19 2020-10-22 Beijing Bytedance Network Technology Co., Ltd. Region based gradient calculation in different motion vector refinements
KR20210149759A (ko) 2019-04-30 2021-12-09 주식회사 윌러스표준기술연구소 적응적 모션 벡터 해상도를 이용한 비디오 신호 처리 방법 및 장치
US11523109B2 (en) 2019-05-02 2022-12-06 Tencent America LLC Method and apparatus for improvements of affine prof
MX2021013977A (es) 2019-05-15 2022-04-01 Huawei Tech Co Ltd Manejo de herramienta de codificacion de flujo optico bidireccional (bio) para remuestreo de imagenes de referencia en codificacion de video.
JP7323641B2 (ja) 2019-05-21 2023-08-08 北京字節跳動網絡技術有限公司 アフィンモードのための適応動きベクトル差分分解
WO2020245498A1 (en) 2019-06-03 2020-12-10 Nokia Technologies Oy An apparatus, a method and a computer program for video coding and decoding
US20220272378A1 (en) 2019-06-23 2022-08-25 Sharp Kabushiki Kaisha Systems and methods for performing an adaptive resolution change in video coding
WO2020262396A1 (en) 2019-06-24 2020-12-30 Sharp Kabushiki Kaisha Systems and methods for reducing a reconstruction error in video coding based on a cross-component correlation
BR112022000158A2 (pt) 2019-07-08 2022-02-22 Huawei Tech Co Ltd Restrições de imagem de unidade de nal mista em codificação de vídeo
CN113994670B (zh) 2019-07-25 2023-08-11 寰发股份有限公司 具有虚拟边界的跨分量自适应环路滤波的视频编解码方法及装置
JP2022544160A (ja) * 2019-08-06 2022-10-17 オーピー ソリューションズ, エルエルシー 適応分解能管理信号伝達
US11363307B2 (en) 2019-08-08 2022-06-14 Hfi Innovation Inc. Video coding with subpictures
KR20220042125A (ko) 2019-08-10 2022-04-04 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 서브픽처 디코딩에서의 버퍼 관리
GB2586484B (en) 2019-08-20 2023-03-08 Canon Kk A filter
WO2021049586A1 (ja) 2019-09-13 2021-03-18 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法、および復号方法
US11202068B2 (en) 2019-09-16 2021-12-14 Mediatek Inc. Method and apparatus of constrained cross-component adaptive loop filtering for video coding
US11451834B2 (en) 2019-09-16 2022-09-20 Tencent America LLC Method and apparatus for cross-component filtering
GB201913403D0 (en) 2019-09-17 2019-10-30 Canon Kk Method and apparatus for encoding and decoding a video stream with subpictures
US11240507B2 (en) 2019-09-24 2022-02-01 Qualcomm Incorporated Simplified palette predictor update for video coding
JP7322290B2 (ja) 2019-10-02 2023-08-07 北京字節跳動網絡技術有限公司 ビデオビットストリームにおけるサブピクチャシグナリングのための構文
CN116016936A (zh) 2019-10-10 2023-04-25 北京达佳互联信息技术有限公司 使用调色板模式的视频编解码的方法和装置
JP7482220B2 (ja) 2019-10-18 2024-05-13 北京字節跳動網絡技術有限公司 サブピクチャのパラメータセットシグナリングにおける構文制約
CN114600462A (zh) 2019-10-25 2022-06-07 夏普株式会社 用于在视频编码中发送信号通知图片信息的系统和方法
US11539982B2 (en) 2019-11-01 2022-12-27 Qualcomm Incorporated Merge estimation region for multi-type-tree block structure
CN115280774A (zh) 2019-12-02 2022-11-01 抖音视界有限公司 在仿射模式下与运动向量差分merge
US11212523B2 (en) 2020-01-12 2021-12-28 Mediatek Inc. Video processing methods and apparatuses of merge number signaling in video coding systems

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
Benjamin Bross, et al.,"Versatile Video Coding (Draft 6)",Document: JVET-O2001-vE, [online],JVET-O2001 (version 14),Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,2019年07月31日,p.37-40,87-97,137-146,198,199,279,280,[令和5年2月27日検索], インターネット, <URL: https://jvet-experts.org/doc_end_user/current_document.php?id=7824> and <URL: https://jvet-experts.org/doc_end_user/documents/15_Gothenburg/wg11/JVET-O2001-v14.zip>.,(See document file "JVET-O2001-vE.docx" in the zip file "JVET-O2001-v14.zip".)
Byeongdoo Choi, et al.,"AHG12: On sub-picture partitioning",Document: JVET-N0055-v2, [online],JVET-N0055 (version 2),Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,2019年03月20日,p.1-7,[令和6年3月15日検索], インターネット, <URL: https://jvet-experts.org/doc_end_user/current_document.php?id=5775> and <URL: https://jvet-experts.org/doc_end_user/documents/14_Geneva/wg11/JVET-N0055-v2.zip>.,(See document file "JVET-N0055-v2.docx" in the zip file "JVET-N0055-v2.zip".)
Jianle Chen, et al.,"Algorithm description for Versatile Video Coding and Test Model 9 (VTM 9)",Document: JVET-R2002-v2, [online],JVET-R2002 (version 2),Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,2020年06月15日,Pages 1,8,9,90-93,[令和5年9月9日検索], インターネット, <URL: https://jvet-experts.org/doc_end_user/current_document.php?id=10156> and <URL: https://jvet-experts.org/doc_end_user/documents/18_Alpbach/wg11/JVET-R2002-v2.zip>.
Jizheng Xu, et al.,"Overview of the Emerging HEVC Screen Content Coding Extension",IEEE Transactions on Circuits and Systems for Video Technology,IEEE,2016年01月,Vol.26, No.1,p.50-62,ISSN: 1051-8215, <DOI: 10.1109/TCSVT.2015.2478706>.
Shan Liu, et al.,"Overview of HEVC extensions on screen content coding",APSIPA Transactions on Signal and Information Processing, [online],Cambridge University Press,2015年09月22日,Vol.4,全12頁,[令和5年2月28日検索], インターネット, <URL: https://www.cambridge.org/core/journals/apsipa-transactions-on-signal-and-information-processing/article/overview-of-hevc-extensions-on-screen-content-coding/E12DCF69B0A59DD269EFE14CD1AFBFBE>,<DOI: https://doi.org/10.1017/ATSIP.2015.11>.
Wei Pu, et al.,"Palette Mode Coding in HEVC Screen Content Coding Extension",IEEE Journal on Emerging and Selected Topics in Circuits and Systems,IEEE,2016年12月,Vol.6, No.4,p.420-432,ISSN: 2156-3357, <DOI: 10.1109/JETCAS.2016.2605661>.
Xiaozhong Xu, et al.,"Intra Block Copy in HEVC Screen Content Coding Extensions",IEEE Journal on Emerging and Selected Topics in Circuits and Systems,IEEE,2016年12月,Vol.6, No.4,p.409-419,ISSN: 2156-3357, <DOI: 10.1109/JETCAS.2016.2597645>.
Yu-Chen Sun, et al.,"Improvements of HEVC SCC Palette Mode and Intra Block Copy",IEEE Journal on Emerging and Selected Topics in Circuits and Systems,IEEE,2016年12月,Vol.6, No.4,p.433-445,ISSN: 2156-3357, <DOI: 10.1109/JETCAS.2016.2598193>.

Also Published As

Publication number Publication date
US11523108B2 (en) 2022-12-06
CN114270831B (zh) 2024-07-30
MX2022001465A (es) 2022-02-22
US11553177B2 (en) 2023-01-10
US20220159246A1 (en) 2022-05-19
WO2021027767A1 (en) 2021-02-18
JP2022543705A (ja) 2022-10-13
CN114208165A (zh) 2022-03-18
CN114208196A (zh) 2022-03-18
CN114208196B (zh) 2023-11-14
WO2021027773A1 (en) 2021-02-18
JP2023182800A (ja) 2023-12-26
US12047558B2 (en) 2024-07-23
KR20220042125A (ko) 2022-04-04
US11533513B2 (en) 2022-12-20
JP7372443B2 (ja) 2023-10-31
WO2021027774A1 (en) 2021-02-18
KR20220044271A (ko) 2022-04-07
CN114270831A (zh) 2022-04-01
EP3997869A4 (en) 2022-10-26
BR112022002493A2 (pt) 2022-04-26
CN117336468A (zh) 2024-01-02
JP2022543706A (ja) 2022-10-13
US20220174322A1 (en) 2022-06-02
US20230118260A1 (en) 2023-04-20
US20220166971A1 (en) 2022-05-26
EP3997868A4 (en) 2023-02-22
WO2021027776A1 (en) 2021-02-18
CN114208166B (zh) 2024-04-09
CN114208165B (zh) 2023-12-15
EP3997869A1 (en) 2022-05-18
EP4307665A2 (en) 2024-01-17
EP3997868A1 (en) 2022-05-18
CN114208166A (zh) 2022-03-18
US20220166985A1 (en) 2022-05-26
US12075030B2 (en) 2024-08-27
EP4307665A3 (en) 2024-07-10

Similar Documents

Publication Publication Date Title
JP7478225B2 (ja) サブピクチャ復号のバッファ管理
JP7482220B2 (ja) サブピクチャのパラメータセットシグナリングにおける構文制約
JP7322290B2 (ja) ビデオビットストリームにおけるサブピクチャシグナリングのための構文
JP2023511059A (ja) ビデオコーディング及び復号の制約

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230614

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240119

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240419

R150 Certificate of patent or registration of utility model

Ref document number: 7478225

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150