JP2022520295A - デコードのための予測方法及びその装置、並びにコンピュータ記憶媒体 - Google Patents
デコードのための予測方法及びその装置、並びにコンピュータ記憶媒体 Download PDFInfo
- Publication number
- JP2022520295A JP2022520295A JP2021518718A JP2021518718A JP2022520295A JP 2022520295 A JP2022520295 A JP 2022520295A JP 2021518718 A JP2021518718 A JP 2021518718A JP 2021518718 A JP2021518718 A JP 2021518718A JP 2022520295 A JP2022520295 A JP 2022520295A
- Authority
- JP
- Japan
- Prior art keywords
- reference sample
- decoding
- sample position
- midpoint
- samples
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 239000013074 reference sample Substances 0.000 claims abstract description 363
- 239000000523 sample Substances 0.000 claims abstract description 57
- 238000005070 sampling Methods 0.000 claims description 87
- 238000004364 calculation method Methods 0.000 claims description 26
- 238000004590 computer program Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 30
- 238000006243 chemical reaction Methods 0.000 description 9
- 238000010276 construction Methods 0.000 description 8
- 238000001914 filtration Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000013139 quantization Methods 0.000 description 6
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000001360 synchronised effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 239000007787 solid Substances 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- KLDZYURQCUYZBL-UHFFFAOYSA-N 2-[3-[(2-hydroxyphenyl)methylideneamino]propyliminomethyl]phenol Chemical compound OC1=CC=CC=C1C=NCCCN=CC1=CC=CC=C1O KLDZYURQCUYZBL-UHFFFAOYSA-N 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 201000001098 delayed sleep phase syndrome Diseases 0.000 description 1
- 208000033921 delayed sleep phase type circadian rhythm sleep disease Diseases 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/149—Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Algebra (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
- Compression Of Band Width Or Redundancy In Fax (AREA)
Abstract
Description
デコードされるべきブロックの少なくとも1つの辺に隣接する参照サンプルを取得し、第1隣接参照サンプルセットを取得することと、
前記少なくとも1つの辺から1つの基準点を決定し、プリセットされたサンプル数に従って、前記少なくとも1つの辺に対応する選択されるべき参照サンプル位置を決定することと、
前記選択されるべき参照サンプル位置に基づいて、前記第1隣接参照サンプルセットから、前記選択されるべき参照サンプル位置に対応する参照サンプルを選択し、選択した参照サンプルで隣接参照サンプルサブセットを形成することと、
前記隣接参照サンプルサブセットに基づいて、前記デコードされるべきブロックに対して予測デコードを実行することと、を含む。
前記取得ユニットは、デコードされるべきブロックの少なくとも1つの辺に隣接する参照サンプルを取得し、第1隣接参照サンプルセットを取得するように構成され、
前記決定ユニットは、前記少なくとも1つの辺から1つの基準点を決定し、プリセットされたサンプル数に従って、前記少なくとも1つの辺に対応する選択されるべき参照サンプル位置を決定するように構成され、
前記選択ユニットは、前記選択されるべき参照サンプル位置に基づいて、前記第1隣接参照サンプルセットから、前記選択されるべき参照サンプル位置に対応する参照サンプルを選択し、選択した参照サンプルで隣接参照サンプルサブセットを形成するように構成され、
前記デコードユニットは、前記隣接参照サンプルサブセットに基づいて、前記デコードされるべきブロックに対して予測デコードを実行するように構成される。
前記メモリは、前記プロセッサで実行可能なコンピュータプログラムを記憶するように構成され、
前記プロセッサは、前記コンピュータプログラムを実行するときに、第1態様に記載の方法のステップを実行するように構成される。
図4Aは、関連する技術的解決策による、正方形のデコードブロックが隣接参照サンプルを選択することを示す概略図である。図4Aに示されるように、当該デコードブロックは正方形のデコードブロックであり、当該デコードブロックの左側辺及び上側辺に対応する全ての隣接サンプルは、参照サンプルとして決定されることができる。第1の色成分については、最初にダウンサンプリングを実行する必要があり、これにより、ダウンサンプリングされた第1の色成分が第2の色成分と同じ解像度を有する。図4Aでは、灰色の実線の円は、正方形のデコードブロックによって選択された隣接参照サンプルを表すために使用される。
デコードブロックの左側辺と上側辺に対応する隣接サンプルが全て使用可能である場合、上側辺に隣接する行のサンプルと左側辺に隣接する列の隣接サンプルは、全て隣接参照サンプルとして使用できる。
CCLMのモデルパラメータを計算するプロセスでは、必要な計算の複雑さは、CCLMに使用される隣接参照サンプルの数に正比例する。したがって、計算の複雑さを軽減するために、JVETの第12回会議でのL0138提案では、デコードされるべきブロックに対応する第2の色成分ブロックのサイズに基づいて、CCLMに使用される隣接参照サンプルの数を減らす技術的解決策が提案された。表1は、関連する技術的解決策による、デコードされるべきブロックに対応する第2の色成分ブロックのサイズと、隣接参照サンプルの数との間の関係表である。表1では、N1は、従来の技術的解決策において、CCLMに使用される隣接参照サンプルの数であり、N2は、L0138提案によるサンプル削減後のCCLMに使用される隣接参照サンプルの数である。具体的には、L0138提案におけるサンプル削減方法は、従来の技術的解決策で隣接参照サンプルを取得した後、当該隣接参照サンプルに対してダウンサンプリングを実行することである。
非正方形のデコードブロックの場合、VTMでは、既に長辺のダウンサンプリングスキーム(図4Bを参照)が提案されている。上記のL0138提案のように、当該提案では、さらなるサンプル削減によって得られたダウンサンプリングセットが提案されている。
逆量子化606は、当該ビデオ符号化ブロックの再構築、即ち、画素ドメインで残余ブロックを再構築するために使用され、当該再構築された残余ブロックは、フィルタ制御分析607及びデブロッキングフィルタリングとSAOフィルタリング608よってフィルタリングされて、ブロッキングアーチファクト(blocking artifacts)が除去され、次に、当該再構築された残余ブロックをデコードされた画像バッファ610のイントラの1つの予測ブロックに追加して、再構築されたビデオ符号化ブロックを生成する。ヘッダ情報符号化とCABAC 609は、各種符号化パラメータお及び量子化された変換係数を符号化するために使用され、CABACベースの符号化アルゴリズムでは、コンテキスト内容は、隣接する符号化ブロックに基づくことができ、決定されたイントラ予測モードを示す情報を符号化して、当該ビデオ信号のコードストリームを出力するために使用できる。デコードされた画像バッファ610は、予測参照のために再構成されたビデオ符号化ブロックを記憶するために使用される。ビデオ画像の符号化につれて、新しい再構築されたビデオ符号化ブロックが継続的に生成され、これらの再構築されたビデオ符号化ブロックは、デコードされた画像バッファ610に記憶される。
前記少なくとも1つの辺の長さに基づき、前記少なくとも1つの辺の中点を決定し、前記少なくとも1つの辺の中点を前記基準点として使用することを含む。
前記少なくとも1つの辺の長さに基づき、前記少なくとも1つの辺の中点が2つの参照サンプルの間の中間位置にある場合、前記中間位置の右側の最初の参照サンプル位置を前記少なくとも1つの辺の基準点として使用するか、または前記中間位置の左側の最初の参照サンプル位置を前記少なくとも1つの辺の基準点として使用することを含む。
前記少なくとも1つの辺の長さに基づき、前記少なくとも1つの辺の中点が2つの参照サンプルの間の中間位置にある場合、前記中間位置の下側の最初の参照サンプル位置を前記少なくとも1つの辺の基準点として使用するか、または前記中間位置の上側の最初の参照サンプル位置を前記少なくとも1つの辺の基準点として使用することを含む。
前記プリセットされたサンプル数及び前記少なくとも1つの辺の長さに基づいて、第1サンプリング間隔を計算することと、
前記少なくとも1つの辺の中点を基準点として、前記第1サンプリング間隔に従って、前記少なくとも1つの辺に対応する選択されるべき参照サンプル位置を決定することと、を含む。
前記少なくとも1つの辺の長さに基づいて、前記少なくとも1つの辺の中点値を計算することと、
前記中点値及び第1サンプリング間隔に従って、参照サンプル位置を計算することと、
前記中点値が非整数である場合、前記中点値の左側の参照サンプル位置を切り捨て、切り捨てた参照サンプル位置を選択されるべき参照サンプル位置として決定し、前記中点値の右側の参照サンプル位置を切り上げ、切り上げた参照サンプル位置を選択されるべき参照サンプル位置として決定することと、を含む。
前記少なくとも1つの辺の長さに基づいて、前記少なくとも1つの辺の中点値を計算することと、
前記中点値及び第1サンプリング間隔に従って、参照サンプル位置を計算することと、
前記中点値が非整数である場合、前記中点値の左側の参照サンプル位置を切り上げ、切り上げた参照サンプル位置を選択されるべき参照サンプル位置として決定し、前記中点値の右側の参照サンプル位置を切り捨て、切り捨てた参照サンプル位置を選択されるべき参照サンプル位置として決定することと、を含む。
前記第1サンプリング間隔を調整して、第2サンプリング間隔を取得することと、
前記少なくとも1つの辺の中点を基準点として、前記第2サンプリング間隔に従って、前記少なくとも1つの辺に対応する選択されるべき参照サンプル位置を決定することと、をさらに含む。
前記少なくとも1つの辺の中点を基準点として、前記第1サンプリング間隔に従って前記基準点の左側に対応する選択されるべき参照サンプル位置を決定し、前記第2サンプリング間隔に従って前記基準点の右側に対応する選択されるべき参照サンプル位置を決定することをさらに含む。
前記少なくとも1つの辺の中点を基準点として、前記プリセットされたサンプル数に従って、前記基準点の近くの連続する参照サンプル位置を選択されるべき参照サンプル位置として決定することを含み、前記基準点は、前記選択されるべき参照サンプル位置の中間位置にある。
前記デコードされるべきブロックの少なくとも1つの辺の長さに基づいて、前記デコードされるべきブロックの長辺及び前記長辺に対応する第3サンプリング間隔を決定することと、
前記長辺の終了位置に対応する参照サンプルを削除し、プリセットされたオフセットに従って、参照サンプルを削除した長辺に対して初期オフセットを行い、オフセットされた参照サンプル位置を開始点として使用し、前記第3サンプリング間隔に従って、参照サンプルを削除した長辺に対してサンプリングを実行することにより、前記長辺に対応する選択されるべき参照サンプル位置を決定することと、をさらに含む。
前記少なくとも1つの辺の開始位置及び終了位置にそれぞれ対応する参照サンプルを削除して、第2隣接参照サンプルセットを取得することと、
前記少なくとも1つの辺の中点を基準点として、前記第2隣接参照サンプルセットに基づいて、プリセットされたサンプル数に従って選択されるべき参照サンプル位置を決定することと、を含む。
前記隣接参照サンプルサブセットに基づいて、モデルパラメータを決定することと、
前記モデルパラメータに従って、予測モデルを確立することであって、前記予測モデルは、前記デコードされるべきブロック内の各サンプルに対応する第1の色成分と第2の色成分との間の予測関係を表すために使用される、ことと、
前記予測モデルに基づいて、前記デコードされるべきブロックに対して予測デコードを実行することと、を含む。
前記決定ユニット1502は、前記少なくとも1つの辺から1つの基準点を決定し、プリセットされたサンプル数に従って、前記少なくとも1つの辺に対応する選択されるべき参照サンプル位置を決定するように構成され、
前記選択ユニット1503は、前記選択されるべき参照サンプル位置に基づいて、前記第1隣接参照サンプルセットから、前記選択されるべき参照サンプル位置に対応する参照サンプルを選択し、選択した参照サンプルで隣接参照サンプルサブセットを形成するように構成され、
前記デコードユニット1504は、前記隣接参照サンプルサブセットに基づいて、前記デコードされるべきブロックに対して予測デコードを実行するように構成される。
前記決定ユニット1502は、具体的に、前記少なくとも1つの辺の中点を基準点として、前記第1サンプリング間隔に従って、前記少なくとも1つの辺に対応する選択されるべき参照サンプル位置を決定するように構成される。
前記決定ユニット1502は、具体的に、前記中点値が非整数である場合、前記中点値の左側の参照サンプル位置を切り捨て、切り捨てた参照サンプル位置を選択されるべき参照サンプル位置として決定し、前記中点値の右側の参照サンプル位置を切り上げ、切り上げた参照サンプル位置を選択されるべき参照サンプル位置として決定するように構成される。
前記決定ユニット1502は、具体的に、前記中点値が非整数である場合、前記中点値の左側の参照サンプル位置を切り上げ、切り上げた参照サンプル位置を選択されるべき参照サンプル位置として決定し、前記中点値の右側の参照サンプル位置を切り捨て、切り捨てた参照サンプル位置を選択されるべき参照サンプル位置として決定するように構成される。
前記決定ユニット1502は、さらに、前記少なくとも1つの辺の中点を基準点として、前記第2サンプリング間隔に従って、前記少なくとも1つの辺に対応する選択されるべき参照サンプル位置を決定するように構成される。
前記決定ユニット1502は、さらに、前記少なくとも1つの辺の中点を基準点として、前記第2隣接参照サンプルセットに基づいて、プリセットされたサンプル数に従って選択されるべき参照サンプル位置を決定するように構成される。
前記デコードユニット1504は、具体的に、前記予測モデルに基づいて、前記デコードされるべきブロックに対して予測デコードを実行するように構成される。
メモリ1602は、プロセッサ1603で実行可能なコンピュータプログラムを記憶するように構成される。
デコードされるべきブロックの少なくとも1つの辺に隣接する参照サンプルを取得し、第1隣接参照サンプルセットを取得し、
前記少なくとも1つの辺から1つの基準点を決定し、プリセットされたサンプル数に従って、前記少なくとも1つの辺に対応する選択されるべき参照サンプル位置を決定し、
前記選択されるべき参照サンプル位置に基づいて、前記第1隣接参照サンプルセットから、前記選択されるべき参照サンプル位置に対応する参照サンプルを選択し、選択された参照サンプルで隣接参照サンプルサブセットを形成し、
前記隣接参照サンプルサブセットに基づいて、前記デコードされるべきブロックに対して予測デコードを実行するように構成される。
Claims (26)
- デコードのための予測方法であって、
デコードされるべきブロックの少なくとも1つの辺に隣接する参照サンプルを取得し、第1隣接参照サンプルセットを取得することと、
前記少なくとも1つの辺から1つの基準点を決定し、プリセットされたサンプル数に従って、前記少なくとも1つの辺に対応する選択されるべき参照サンプル位置を決定することと、
前記選択されるべき参照サンプル位置に基づいて、前記第1隣接参照サンプルセットから、前記選択されるべき参照サンプル位置に対応する参照サンプルを選択し、選択した参照サンプルで隣接参照サンプルサブセットを形成することと、
前記隣接参照サンプルサブセットに基づいて、前記デコードされるべきブロックに対して予測デコードを実行することと、を含む、前記デコードのための予測方法。 - 前記基準点が前記少なくとも1つの辺の中点である場合、前記少なくとも1つの辺から1つの基準点を決定することは、
前記少なくとも1つの辺の長さに基づき、前記少なくとも1つの辺の中点が2つの参照サンプルの間の中間位置にある場合、前記中間位置の右側の最初の参照サンプル位置を前記少なくとも1つの辺の基準点として使用するか、または前記中間位置の左側の最初の参照サンプル位置を前記少なくとも1つの辺の基準点として使用することを含む、
請求項1に記載のデコードのための予測方法。 - 前記基準点が前記少なくとも1つの辺の中点である場合、前記少なくとも1つの辺から1つの基準点を決定することは、
前記少なくとも1つの辺の長さに基づき、前記少なくとも1つの辺の中点が2つの参照サンプルの間の中間位置にある場合、前記中間位置の下側の最初の参照サンプル位置を前記少なくとも1つの辺の基準点として使用するか、または前記中間位置の上側の最初の参照サンプル位置を前記少なくとも1つの辺の基準点として使用することを含む、
請求項1に記載のデコードのための予測方法。 - 前記少なくとも1つの辺から1つの基準点を決定し、プリセットされたサンプル数に従って、前記少なくとも1つの辺に対応する選択されるべき参照サンプル位置を決定することは、
前記プリセットされたサンプル数及び前記少なくとも1つの辺の長さに基づいて、第1サンプリング間隔を計算することと、
前記少なくとも1つの辺の中点を基準点として、前記第1サンプリング間隔に従って、前記少なくとも1つの辺に対応する選択されるべき参照サンプル位置を決定することと、を含む、
請求項1に記載のデコードのための予測方法。 - 前記少なくとも1つの辺の中点を基準点として、前記第1サンプリング間隔に従って、前記少なくとも1つの辺に対応する選択されるべき参照サンプル位置を決定することは、
前記少なくとも1つの辺の長さに基づいて、前記少なくとも1つの辺の中点値を計算することと、
前記中点値及び第1サンプリング間隔に従って、参照サンプル位置を計算することと、
前記中点値が非整数である場合、前記中点値の左側の参照サンプル位置を切り捨て、切り捨てた参照サンプル位置を選択されるべき参照サンプル位置として決定し、前記中点値の右側の参照サンプル位置を切り上げ、切り上げた参照サンプル位置を選択されるべき参照サンプル位置として決定することと、を含む、
請求項4に記載のデコードのための予測方法。 - 前記少なくとも1つの辺の中点を基準点として、前記第1サンプリング間隔に従って、前記少なくとも1つの辺に対応する選択されるべき参照サンプル位置を決定することは、
前記少なくとも1つの辺の長さに基づいて、前記少なくとも1つの辺の中点値を計算することと、
前記中点値及び第1サンプリング間隔に従って、参照サンプル位置を計算することと、
前記中点値が非整数である場合、前記中点値の左側の参照サンプル位置を切り上げ、切り上げた参照サンプル位置を選択されるべき参照サンプル位置として決定し、前記中点値の右側の参照サンプル位置を切り捨て、切り捨てた参照サンプル位置を選択されるべき参照サンプル位置として決定することと、を含む、
請求項4に記載のデコードのための予測方法。 - 前記第1サンプリング間隔を計算した後、前記デコードのための予測方法は、
前記第1サンプリング間隔を調整して、第2サンプリング間隔を取得することと、
前記少なくとも1つの辺の中点を基準点として、前記第2サンプリング間隔に従って、前記少なくとも1つの辺に対応する選択されるべき参照サンプル位置を決定することと、をさらに含む、
請求項4に記載のデコードのための予測方法。 - 前記第2サンプリング間隔を取得した後、前記デコードのための予測方法は、
前記少なくとも1つの辺の中点を基準点として、前記第1サンプリング間隔に従って前記基準点の左側に対応する選択されるべき参照サンプル位置を決定し、前記第2サンプリング間隔に従って前記基準点の右側に対応する選択されるべき参照サンプル位置を決定することをさらに含む、
請求項7に記載のデコードのための予測方法。 - 前記少なくとも1つの辺から1つの基準点を決定し、プリセットされたサンプル数に従って、前記少なくとも1つの辺に対応する選択されるべき参照サンプル位置を決定することは、
前記少なくとも1つの辺の中点を基準点として、前記プリセットされたサンプル数に従って、前記基準点の近くの連続する参照サンプル位置を選択されるべき参照サンプル位置として決定することを含み、前記基準点は、前記選択されるべき参照サンプル位置の中間位置にある、
請求項1に記載のデコードのための予測方法。 - 前記デコードされるべきブロックは、正方形のデコードブロックまたは非正方形のデコードブロックを含む、
請求項1ないし9のいずれか一項に記載のデコードのための予測方法。 - 前記少なくとも1つの辺から1つの基準点を決定し、プリセットされたサンプル数に従って、前記少なくとも1つの辺に対応する選択されるべき参照サンプル位置を決定することは、
前記少なくとも1つの辺の開始位置及び終了位置にそれぞれ対応する参照サンプルを削除して、第2隣接参照サンプルセットを取得することと、
前記少なくとも1つの辺の中点を基準点として、前記第2隣接参照サンプルセットに基づいて、プリセットされたサンプル数に従って選択されるべき参照サンプル位置を決定することと、を含む、
請求項1に記載のデコードのための予測方法。 - 前記隣接参照サンプルサブセットに基づいて、前記デコードされるべきブロックに対して予測デコードを実行することは、
前記隣接参照サンプルサブセットに基づいて、モデルパラメータを決定することと、
前記モデルパラメータに従って、予測モデルを確立するであって、前記予測モデルは、前記デコードされるべきブロック内の各サンプルに対応する第1の色成分と第2の色成分との間の予測関係を表すために使用される、ことと、
前記予測モデルに基づいて、前記デコードされるべきブロックに対して予測デコードを実行することと、を含む、
請求項1ないし11のいずれか一項に記載のデコードのための予測方法。 - デコードのための予測装置であって、取得ユニットと、決定ユニットと、選択ユニットと、デコードユニットとを備え、
前記取得ユニットは、デコードされるべきブロックの少なくとも1つの辺に隣接する参照サンプルを取得し、第1隣接参照サンプルセットを取得するように構成され、
前記決定ユニットは、前記少なくとも1つの辺から1つの基準点を決定し、プリセットされたサンプル数に従って、前記少なくとも1つの辺に対応する選択されるべき参照サンプル位置を決定するように構成され、
前記選択ユニットは、前記選択されるべき参照サンプル位置に基づいて、前記第1隣接参照サンプルセットから、前記選択されるべき参照サンプル位置に対応する参照サンプルを選択し、選択した参照サンプルで隣接参照サンプルサブセットを形成するように構成され、
前記デコードユニットは、前記隣接参照サンプルサブセットに基づいて、前記デコードされるべきブロックに対して予測デコードを実行するように構成される、前記デコードのための予測装置。 - 前記決定ユニットは、具体的に、前記少なくとも1つの辺の長さに基づき、前記少なくとも1つの辺の中点が2つの参照サンプルの間の中間位置にある場合、前記中間位置の右側の最初の参照サンプル位置を前記少なくとも1つの辺の基準点として使用するか、または前記中間位置の左側の最初の参照サンプル位置を前記少なくとも1つの辺の基準点として使用するように構成される、
請求項13に記載のデコードのための予測装置。 - 前記決定ユニットは、具体的に、前記少なくとも1つの辺の長さに基づき、前記少なくとも1つの辺の中点が2つの参照サンプルの間の中間位置にある場合、前記中間位置の下側の最初の参照サンプル位置を前記少なくとも1つの辺の基準点として使用するか、または前記中間位置の上側の最初の参照サンプル位置を前記少なくとも1つの辺の基準点として使用するように構成される、
請求項13に記載のデコードのための予測装置。 - 前記デコードのための予測装置は、さらに、
前記プリセットされたサンプル数及び前記少なくとも1つの辺の長さに基づいて、第1サンプリング間隔を計算するように構成される計算ユニットをさらに備え、
前記決定ユニットは、具体的に、前記少なくとも1つの辺の中点を基準点として、前記第1サンプリング間隔に従って、前記少なくとも1つの辺に対応する選択されるべき参照サンプル位置を決定するように構成される、
請求項13に記載のデコードのための予測装置。 - 前記計算ユニットは、さらに、前記少なくとも1つの辺の長さに基づいて、前記少なくとも1つの辺の中点値を計算する、以及前記中点値及び第1サンプリング間隔に従って、参照サンプル位置を計算するように構成され、前記決定ユニットは、具体的に、前記中点値が非整数である場合、前記中点値の左側の参照サンプル位置を切り捨て、切り捨てた参照サンプル位置を選択されるべき参照サンプル位置として決定し、前記中点値の右側の参照サンプル位置を切り上げ、切り上げた参照サンプル位置を選択されるべき参照サンプル位置として決定するように構成される、
請求項16に記載のデコードのための予測装置。 - 前記計算ユニットは、さらに、前記少なくとも1つの辺の長さに基づいて、前記少なくとも1つの辺の中点値を計算し、前記中点値及び第1サンプリング間隔に従って、参照サンプル位置を計算するように構成され、前記決定ユニットは、具体的に、前記中点値が非整数である場合、前記中点値の左側の参照サンプル位置を切り上げ、切り上げた参照サンプル位置を選択されるべき参照サンプル位置として決定し、前記中点値の右側の参照サンプル位置を切り捨て、切り捨てた参照サンプル位置を選択されるべき参照サンプル位置として決定するように構成される、
請求項16に記載のデコードのための予測装置。 - 前記デコードのための予測装置は、さらに、
前記第1サンプリング間隔を調整して、第2サンプリング間隔を取得するように構成される調整ユニットを備え、
前記決定ユニットは、さらに、前記少なくとも1つの辺の中点を基準点として、前記第2サンプリング間隔に従って、前記少なくとも1つの辺に対応する選択されるべき参照サンプル位置を決定するように構成される、
請求項16に記載のデコードのための予測装置。 - 前記決定ユニットは、さらに、前記少なくとも1つの辺の中点を基準点として、前記第1サンプリング間隔に従って前記基準点の左側に対応する選択されるべき参照サンプル位置を決定し、前記第2サンプリング間隔に従って前記基準点の右側に対応する選択されるべき参照サンプル位置を決定するように構成される、
請求項19に記載のデコードのための予測装置。 - 前記決定ユニットは、さらに、前記少なくとも1つの辺の中点を基準点として、前記プリセットされたサンプル数に従って、前記基準点の近くの連続する参照サンプル位置を選択されるべき参照サンプル位置として決定するように構成され、前記基準点は、前記選択されるべき参照サンプル位置の中間位置にある、
請求項13に記載のデコードのための予測装置。 - 前記デコードされるべきブロックは、正方形のデコードブロックまたは非正方形のデコードブロックを含む、
請求項13ないし21のいずれか一項に記載のデコードのための予測装置。 - 前記取得ユニットは、さらに、前記少なくとも1つの辺の開始位置及び終了位置にそれぞれ対応する参照サンプルを削除して、第2隣接参照サンプルセットを取得するように構成され、
前記決定ユニットは、さらに、前記少なくとも1つの辺の中点を基準点として、前記第2隣接参照サンプルセットに基づいて、プリセットされたサンプル数に従って選択されるべき参照サンプル位置を決定するように構成される、
請求項13に記載のデコードのための予測装置。 - 前記デコードのための予測装置は、さらに、
前記隣接参照サンプルサブセットに基づいて、モデルパラメータを決定し、前記モデルパラメータに従って、予測モデルを確立するように構成される確立ユニットを備え、前記予測モデルは、前記デコードされるべきブロック内の各サンプルに対応する第1の色成分と第2の色成分との間の予測関係を表すために使用され、
前記デコードユニットは、具体的に、前記予測モデルに基づいて、前記デコードされるべきブロックに対して予測デコードを実行するように構成される、
請求項13ないし23のいずれか一項に記載のデコードのための予測装置。 - デコードのための予測装置であって、メモリと、プロセッサとを備え、
前記メモリは、前記プロセッサで実行可能なコンピュータプログラムを記憶するように構成され、
前記プロセッサは、前記コンピュータプログラムを実行するときに、請求項1ないし12のいずれか一項に記載の方法のステップを実行するように構成される、前記デコードのための予測装置。 - コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体にデコードの予測プログラムが記憶され、前記デコードの予測プログラムが少なくとも1つのプロセッサによって実行されるときに、前記プロセッサに請求項1ないし12のいずれか一項に記載の方法のステップを実行させる、前記コンピュータ可読記憶媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2018/123657 WO2020132908A1 (zh) | 2018-12-25 | 2018-12-25 | 解码预测方法、装置及计算机存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022520295A true JP2022520295A (ja) | 2022-03-30 |
JP7481332B2 JP7481332B2 (ja) | 2024-05-10 |
Family
ID=71126759
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021518718A Active JP7481332B2 (ja) | 2018-12-25 | 2018-12-25 | デコードのための予測方法及びその装置、並びにコンピュータ記憶媒体 |
Country Status (14)
Country | Link |
---|---|
US (6) | US11297313B2 (ja) |
EP (1) | EP3829167A4 (ja) |
JP (1) | JP7481332B2 (ja) |
KR (1) | KR20210106547A (ja) |
CN (8) | CN116456084A (ja) |
AU (1) | AU2018454766A1 (ja) |
BR (1) | BR112021006547A2 (ja) |
CA (2) | CA3113787C (ja) |
IL (1) | IL281399A (ja) |
MX (1) | MX2021003940A (ja) |
PH (1) | PH12021550515A1 (ja) |
SG (1) | SG11202102435VA (ja) |
WO (1) | WO2020132908A1 (ja) |
ZA (1) | ZA202101726B (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7295959B2 (ja) | 2019-01-02 | 2023-06-21 | オッポ広東移動通信有限公司 | 予測デコーディング方法、装置及びコンピュータ記憶媒体 |
JP7476426B2 (ja) | 2021-06-30 | 2024-04-30 | テンセント・アメリカ・エルエルシー | ビデオコーディングのための方法、装置、およびコンピュータプログラム |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116737607B (zh) * | 2023-08-16 | 2023-11-21 | 之江实验室 | 样本数据缓存方法、系统、计算机设备和存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130188883A1 (en) * | 2012-01-19 | 2013-07-25 | Canon Kabushiki Kaisha | Method and device for processing components of an image for encoding or decoding |
WO2019147910A1 (en) * | 2018-01-26 | 2019-08-01 | Interdigital Vc Holdings, Inc. | Method and apparatus for video encoding and decoding based on a linear model responsive to neighboring samples |
Family Cites Families (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7813432B2 (en) * | 2004-12-30 | 2010-10-12 | Intel Corporation | Offset buffer for intra-prediction of digital video |
TWI401972B (zh) | 2009-06-23 | 2013-07-11 | Acer Inc | 時間性錯誤隱藏方法 |
TWI562600B (en) * | 2010-02-08 | 2016-12-11 | Nokia Technologies Oy | An apparatus, a method and a computer program for video coding |
CN102215396A (zh) | 2010-04-09 | 2011-10-12 | 华为技术有限公司 | 一种视频编解码方法和系统 |
WO2011145862A2 (en) * | 2010-05-17 | 2011-11-24 | Lg Electronics Inc. | New intra prediction modes |
EP2391129B1 (en) * | 2010-05-25 | 2018-11-28 | Lg Electronics Inc. | New planar prediction mode |
EP3383046A1 (en) | 2010-09-30 | 2018-10-03 | Sun Patent Trust | Image decoding method, image decoding apparatus and program |
US20120163457A1 (en) | 2010-12-28 | 2012-06-28 | Viktor Wahadaniah | Moving picture decoding method, moving picture coding method, moving picture decoding apparatus, moving picture coding apparatus, and moving picture coding and decoding apparatus |
CN102611885B (zh) * | 2011-01-20 | 2014-04-30 | 华为技术有限公司 | 一种编解码方法和装置 |
US9237356B2 (en) | 2011-09-23 | 2016-01-12 | Qualcomm Incorporated | Reference picture list construction for video coding |
US9280835B2 (en) | 2011-10-18 | 2016-03-08 | Nokia Technologies Oy | Method for coding and an apparatus based on a DC prediction value |
CN103220506B (zh) | 2012-01-19 | 2015-11-25 | 华为技术有限公司 | 一种编解码方法和设备 |
CN102547296B (zh) * | 2012-02-27 | 2015-04-01 | 开曼群岛威睿电通股份有限公司 | 移动估计加速电路、移动估计方法及环路滤波加速电路 |
GB2501518A (en) * | 2012-04-27 | 2013-10-30 | Canon Kk | Encoding and Decoding an Image Comprising Blocks of Pixels Including Selecting the Prediction Mode of Prediction Units |
US9667942B2 (en) * | 2012-11-20 | 2017-05-30 | Qualcomm Incorporated | Adaptive luminance compensation in three dimensional video coding |
JP6005572B2 (ja) * | 2013-03-28 | 2016-10-12 | Kddi株式会社 | 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、およびプログラム |
KR102327617B1 (ko) | 2013-04-08 | 2021-11-17 | 지이 비디오 컴프레션, 엘엘씨 | 효율적인 다-시점/계층 코딩을 허용하는 코딩 개념 |
CN104125463A (zh) | 2013-04-26 | 2014-10-29 | 华为技术有限公司 | 一种图像预测编码方法及图像编码器 |
JP6023332B2 (ja) * | 2013-07-10 | 2016-11-09 | Kddi株式会社 | 動画像符号化装置、動画像復号装置、動画像システム、動画像符号化方法、動画像復号方法、およびプログラム |
CN106688238B (zh) * | 2013-10-17 | 2019-12-17 | 华为技术有限公司 | 改进后的深度图帧内编码的参考像素点选择和滤波 |
US10129542B2 (en) | 2013-10-17 | 2018-11-13 | Futurewei Technologies, Inc. | Reference pixel selection and filtering for intra coding of depth map |
CN105874788B (zh) | 2013-12-30 | 2017-11-14 | 高通股份有限公司 | 对3d视频译码中较大预测块的逐段dc译码的简化 |
WO2015194896A1 (ko) * | 2014-06-18 | 2015-12-23 | 삼성전자 주식회사 | 휘도차를 보상하기 위한 인터 레이어 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치 |
JP6589878B2 (ja) * | 2014-10-31 | 2019-10-16 | 日本電気株式会社 | 予測画像生成装置および予測画像生成方法 |
US10742973B2 (en) * | 2015-05-12 | 2020-08-11 | Samsung Electronics Co., Ltd. | Image decoding method for performing intra prediction and device thereof, and image encoding method for performing intra prediction and device thereof |
US10887597B2 (en) * | 2015-06-09 | 2021-01-05 | Qualcomm Incorporated | Systems and methods of determining illumination compensation parameters for video coding |
CN107810635A (zh) * | 2015-06-16 | 2018-03-16 | Lg 电子株式会社 | 图像编译系统中基于照度补偿预测块的方法和设备 |
US20160373742A1 (en) | 2015-06-18 | 2016-12-22 | Qualcomm Incorporated | Intra prediction and intra mode coding |
CN107836116B (zh) * | 2015-07-08 | 2021-08-06 | 交互数字麦迪逊专利控股公司 | 用于使用交叉平面滤波的增强色度编码的方法和装置 |
US10200719B2 (en) * | 2015-11-25 | 2019-02-05 | Qualcomm Incorporated | Modification of transform coefficients for non-square transform units in video coding |
US10390021B2 (en) * | 2016-03-18 | 2019-08-20 | Mediatek Inc. | Method and apparatus of video coding |
EP3453174A1 (en) * | 2016-05-06 | 2019-03-13 | VID SCALE, Inc. | Method and system for decoder-side intra mode derivation for block-based video coding |
US10397569B2 (en) * | 2016-06-03 | 2019-08-27 | Mediatek Inc. | Method and apparatus for template-based intra prediction in image and video coding |
US10326986B2 (en) * | 2016-08-15 | 2019-06-18 | Qualcomm Incorporated | Intra video coding using a decoupled tree structure |
US10368107B2 (en) * | 2016-08-15 | 2019-07-30 | Qualcomm Incorporated | Intra video coding using a decoupled tree structure |
WO2018062921A1 (ko) * | 2016-09-30 | 2018-04-05 | 엘지전자 주식회사 | 영상 코딩 시스템에서 블록 분할 및 인트라 예측 방법 및 장치 |
US10951912B2 (en) * | 2016-10-05 | 2021-03-16 | Qualcomm Incorporated | Systems and methods for adaptive selection of weights for video coding |
WO2018070713A1 (ko) * | 2016-10-11 | 2018-04-19 | 엘지전자(주) | 크로마 성분에 대한 인트라 예측 모드를 유도하는 방법 및 장치 |
US10477240B2 (en) * | 2016-12-19 | 2019-11-12 | Qualcomm Incorporated | Linear model prediction mode with sample accessing for video coding |
WO2018124627A1 (ko) * | 2016-12-27 | 2018-07-05 | 삼성전자 주식회사 | 부호화 방법 및 그 장치, 복호화 방법 및 그 장치 |
US11277635B2 (en) * | 2017-03-17 | 2022-03-15 | Vid Scale, Inc. | Predictive coding for 360-degree video based on geometry padding |
WO2018236031A1 (ko) * | 2017-06-21 | 2018-12-27 | 엘지전자(주) | 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 |
US11190762B2 (en) * | 2017-06-21 | 2021-11-30 | Lg Electronics, Inc. | Intra-prediction mode-based image processing method and apparatus therefor |
US20200154124A1 (en) * | 2017-07-04 | 2020-05-14 | Lg Electronics Inc. | Image decoding method based on inter prediction and image decoding apparatus therefor |
US20200145649A1 (en) * | 2017-07-10 | 2020-05-07 | Lg Electronics Inc. | Method and apparatus for reducing noise in frequency-domain in image coding system |
GB2567249A (en) * | 2017-10-09 | 2019-04-10 | Canon Kk | New sample sets and new down-sampling schemes for linear component sample prediction |
GB2567861A (en) * | 2017-10-27 | 2019-05-01 | Sony Corp | Image data encoding and decoding |
US10523948B2 (en) * | 2018-02-05 | 2019-12-31 | Tencent America LLC | Method and apparatus for video coding |
US10462483B1 (en) * | 2018-04-26 | 2019-10-29 | Tencent America LLC | Method and apparatus for video coding |
US10609402B2 (en) * | 2018-05-02 | 2020-03-31 | Tencent America LLC | Method and apparatus for prediction and transform for small blocks |
CA3105339A1 (en) | 2018-06-30 | 2020-01-02 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Merge mode-based inter-prediction method and apparatus |
US11128872B2 (en) * | 2018-07-16 | 2021-09-21 | Qualcomm Incorporated | Position dependent intra prediction combination with wide angle intra prediction |
US10491893B1 (en) * | 2018-08-29 | 2019-11-26 | Tencent America LLC | Method and apparatus for multi-line intra prediction |
KR20200028856A (ko) | 2018-09-07 | 2020-03-17 | 김기백 | 인트라 예측을 이용한 영상 부호화/복호화 방법 및 장치 |
JP7459069B2 (ja) | 2018-09-21 | 2024-04-01 | オッポ広東移動通信有限公司 | 映像信号符号化/復号化方法及びその装置 |
IL304953A (en) | 2018-09-21 | 2023-10-01 | Guangdong Oppo Mobile Telecommunications Corp Ltd | A method of encoding/decoding image signals and a device therefor |
MX2021003853A (es) * | 2018-10-05 | 2021-09-08 | Huawei Tech Co Ltd | Método y dispositivo de intrapredicción. |
SG11202103208PA (en) | 2018-10-12 | 2021-04-29 | Guangdong Oppo Mobile Telecommunications Corp Ltd | Method for encoding/decoding image signal and device for same |
US11197005B2 (en) * | 2018-11-08 | 2021-12-07 | Qualcomm Incorporated | Cross-component prediction for video coding |
US11178396B2 (en) * | 2018-11-14 | 2021-11-16 | Tencent America LLC | Constrained intra prediction and unified most probable mode list generation |
CA3085391C (en) * | 2018-11-23 | 2023-10-24 | Lg Electronics Inc. | Method for decoding image on basis of cclm prediction in image coding system, and device therefor |
-
2018
- 2018-12-25 CN CN202310455271.5A patent/CN116456084A/zh active Pending
- 2018-12-25 CN CN202310452465.XA patent/CN116456083A/zh active Pending
- 2018-12-25 CA CA3113787A patent/CA3113787C/en active Active
- 2018-12-25 WO PCT/CN2018/123657 patent/WO2020132908A1/zh unknown
- 2018-12-25 CN CN202310454159.XA patent/CN116614622A/zh active Pending
- 2018-12-25 CN CN202310451318.0A patent/CN116456082A/zh active Pending
- 2018-12-25 CN CN202310449638.2A patent/CN116456081A/zh active Pending
- 2018-12-25 CN CN202110246654.2A patent/CN113068025B/zh active Active
- 2018-12-25 MX MX2021003940A patent/MX2021003940A/es unknown
- 2018-12-25 SG SG11202102435VA patent/SG11202102435VA/en unknown
- 2018-12-25 CN CN201880095849.8A patent/CN112470468A/zh active Pending
- 2018-12-25 EP EP18945329.3A patent/EP3829167A4/en active Pending
- 2018-12-25 CA CA3222255A patent/CA3222255A1/en active Pending
- 2018-12-25 KR KR1020217023381A patent/KR20210106547A/ko active Search and Examination
- 2018-12-25 AU AU2018454766A patent/AU2018454766A1/en active Pending
- 2018-12-25 JP JP2021518718A patent/JP7481332B2/ja active Active
- 2018-12-25 BR BR112021006547A patent/BR112021006547A2/pt unknown
- 2018-12-25 CN CN202110270601.4A patent/CN113068026B/zh active Active
-
2021
- 2021-03-10 PH PH12021550515A patent/PH12021550515A1/en unknown
- 2021-03-10 IL IL281399A patent/IL281399A/en unknown
- 2021-03-15 ZA ZA2021/01726A patent/ZA202101726B/en unknown
- 2021-04-19 US US17/234,639 patent/US11297313B2/en active Active
-
2022
- 2022-02-22 US US17/677,802 patent/US11683477B2/en active Active
- 2022-02-22 US US17/677,807 patent/US11683478B2/en active Active
- 2022-02-22 US US17/677,813 patent/US11677936B2/en active Active
- 2022-02-22 US US17/677,810 patent/US11785208B2/en active Active
-
2023
- 2023-06-02 US US18/328,705 patent/US20230308643A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130188883A1 (en) * | 2012-01-19 | 2013-07-25 | Canon Kabushiki Kaisha | Method and device for processing components of an image for encoding or decoding |
WO2019147910A1 (en) * | 2018-01-26 | 2019-08-01 | Interdigital Vc Holdings, Inc. | Method and apparatus for video encoding and decoding based on a linear model responsive to neighboring samples |
Non-Patent Citations (1)
Title |
---|
XIANG MA ET AL., CE3-RELATED: CCLM COEFFICIENTS DERIVATION METHOD WITHOUT DOWN-SAMPLING OPERATION, JPN6023000222, 7 October 2018 (2018-10-07), ISSN: 0004957666 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7295959B2 (ja) | 2019-01-02 | 2023-06-21 | オッポ広東移動通信有限公司 | 予測デコーディング方法、装置及びコンピュータ記憶媒体 |
US11863777B2 (en) | 2019-01-02 | 2024-01-02 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Prediction decoding method and apparatus |
US11863776B2 (en) | 2019-01-02 | 2024-01-02 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Prediction decoding method and apparatus |
US11871020B2 (en) | 2019-01-02 | 2024-01-09 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Prediction decoding method and apparatus |
US11870946B2 (en) | 2019-01-02 | 2024-01-09 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Prediction decoding method and apparatus |
JP7476426B2 (ja) | 2021-06-30 | 2024-04-30 | テンセント・アメリカ・エルエルシー | ビデオコーディングのための方法、装置、およびコンピュータプログラム |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11683478B2 (en) | Prediction method for decoding and apparatus, and computer storage medium | |
US11159814B2 (en) | Image coding/decoding method, coder, decoder, and storage medium | |
EP3843399A1 (en) | Video image component prediction method and apparatus, and computer storage medium | |
JP2023113887A (ja) | 予測デコーディング方法、装置及びコンピュータ記憶媒体 | |
JP2022521366A (ja) | イントラ予測方法、装置およびコンピュータ記憶媒体 | |
RU2781240C1 (ru) | Способ и устройство предсказания для декодирования и компьютерный носитель данных | |
US11363257B2 (en) | Image component prediction method and device, and computer storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211129 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211129 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230405 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230721 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230825 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231114 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240329 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240425 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7481332 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |