JP2022528331A - 画像成分予測方法、エンコーダー、デコーダー及び記憶媒体 - Google Patents
画像成分予測方法、エンコーダー、デコーダー及び記憶媒体 Download PDFInfo
- Publication number
- JP2022528331A JP2022528331A JP2021556936A JP2021556936A JP2022528331A JP 2022528331 A JP2022528331 A JP 2022528331A JP 2021556936 A JP2021556936 A JP 2021556936A JP 2021556936 A JP2021556936 A JP 2021556936A JP 2022528331 A JP2022528331 A JP 2022528331A
- Authority
- JP
- Japan
- Prior art keywords
- current block
- candidate
- reference pixel
- pixels
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 148
- 238000012545 processing Methods 0.000 claims abstract description 43
- 238000005070 sampling Methods 0.000 claims description 112
- 238000004364 calculation method Methods 0.000 claims description 26
- 238000004590 computer program Methods 0.000 claims description 14
- 230000000875 corresponding effect Effects 0.000 description 88
- 230000002547 anomalous effect Effects 0.000 description 11
- 238000010276 construction Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 238000012216 screening Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000001360 synchronised effect Effects 0.000 description 5
- 230000002159 abnormal effect Effects 0.000 description 4
- 238000012217 deletion Methods 0.000 description 4
- 230000037430 deletion Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000002596 correlated effect Effects 0.000 description 3
- 230000000052 comparative effect Effects 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 1
- 201000001098 delayed sleep phase syndrome Diseases 0.000 description 1
- 208000033921 delayed sleep phase type circadian rhythm sleep disease Diseases 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004383 yellowing Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/149—Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/167—Position within a video image, e.g. region of interest [ROI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
- H04N19/423—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Algebra (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
現在のブロックの予測すべき画像成分の第1の基準ピクセルセットを決定するステップと、
第1の基準ピクセルセットから基準ピクセルサブセットを決定するステップであって、基準ピクセルサブセットには第1の基準ピクセルセットから選択された1つ又は複数の候補ピクセルが含まれる、ステップと、
基準ピクセルサブセットを用いて予測モデルのモデルパラメータを計算するステップであって、予測モデルが前記現在のブロックの予測すべき画像成分に対して成分間予測処理を行うために用いられる、ステップと、を含む。
第1の決定ユニットは、現在のブロックの予測すべき画像成分の第1の基準ピクセルセットを決定するように構成され、
第1の決定ユニットは、さらに前記第1の基準ピクセルセットから基準ピクセルサブセットを決定するように構成され、基準ピクセルサブセットには第1の基準ピクセルセットから選択された1つ又は複数の候補ピクセルが含まれ、
第1の計算ユニットは、基準ピクセルサブセットを用いて予測モデルのモデルパラメータを計算するように構成され、予測モデルが前記現在のブロックの予測すべき画像成分に対して成分間予測処理を行うために用いられる。
第1のメモリは、第1のプロセッサで実行可能なコンピュータプログラムを記憶するように構成され、
前記コンピュータプログラムを実行して、第1の態様に記載の方法を実行するように構成される。
第2の決定ユニットは、現在のブロックの予測すべき画像成分の第1の基準ピクセルセットを決定するように構成され、
第2の決定ユニットは、さらに第1の基準ピクセルセットから基準ピクセルサブセットを決定するように構成され、基準ピクセルサブセットには第1の基準ピクセルセットから選択された1つ又は複数の候補ピクセルが含まれ、
第2の計算ユニットは、基準ピクセルサブセットを用いて予測モデルのモデルパラメータを計算するように構成され、予測モデルが前記現在のブロックの予測すべき画像成分に対して成分間予測処理を行うために用いられる。
第2のメモリは、第2のプロセッサで実行可能なコンピュータプログラムを記憶するように構成され、
第2のプロセッサは、前記コンピュータプログラムを実行して、第1の態様に記載の方法を実行するように構成される。
現在のブロックの予測すべき画像成分の第1の基準ピクセルセットを決定するステップS101と、
前記第1の基準ピクセルセットから基準ピクセルサブセットを決定するステップであって、前記基準ピクセルサブセットには前記第1の基準ピクセルセットから選択された1つ又は複数の候補ピクセルが含まれる、ステップS102と、
前記基準ピクセルサブセットを用いて予測モデルのモデルパラメータを計算するステップであって、前記予測モデルが前記現在のブロックの予測すべき画像成分に対して成分間予測処理を行うために用いられる、ステップS103と、を含むことができる。
前記現在のブロックの外側で、前記現在のブロックの少なくとも1つの辺に隣接する基準ピクセルを取得するステップであって、前記現在のブロックの少なくとも1つの辺には上辺、左辺、右上辺及び左下辺の少なくとも1つが含まれる、ステップと、
取得された基準ピクセルに基づいて、前記第1の基準ピクセルセットを取得するステップと、を含むことができる。
前記現在のブロックの少なくとも1つの辺に隣接する基準ピクセルを取得するステップであって、前記少なくとも1つの辺には前記現在のブロックの左辺及び/又は前記現在のブロックの上辺が含まれる、ステップと、
取得された基準ピクセルに基づいて、前記第1の基準ピクセルセットを取得するステップと、を含むことができることが理解可能である。
前記現在のブロックに隣接する基準行又は基準列における基準ピクセルを取得するステップであって、前記基準行が前記現在のブロックの上辺及び右上辺に隣接する行で構成され、前記基準列が前記現在のブロックの左辺及び左下辺に隣接する列で構成されるステップと、
取得された基準ピクセルに基づいて、前記第1の基準ピクセルセットを取得するステップと、を含むことができることが理解可能である。
再構成ブロック内で、前記再構成ブロックの少なくとも1つの辺に隣接する基準ピクセルを取得するステップであって、前記再構成ブロックが前記現在のブロックに隣接しかつ符号化及び再構成が完了された画像ブロックであり、前記再構成ブロックの少なくとも1つの辺には下辺、右辺、又は下辺及び右辺が含まれる、ステップと、
取得された基準ピクセルに基づいて、前記第1の基準ピクセルセットを取得するステップと、を含むことができる。
前記現在のブロック又は前記再構成ブロックの少なくとも1つの辺に基づいて、候補ピクセルの候補位置を決定するステップと、
前記第1の基準ピクセルセットから前記候補位置に対応する基準ピクセルを選択し、選択された基準ピクセルを使用して前記基準ピクセルサブセットを形成するステップと、を含むことができる。
前記少なくとも1つの辺に隣接する基準ピクセルに対応するピクセル位置に基づいて、前記候補位置を決定するステップを含むことができる。
前記少なくとも1つの辺に隣接する基準ピクセルに対応する画像成分強度値に基づいて、前記候補位置を決定するステップを含むことができる。
前記少なくとも1つの辺に隣接する基準ピクセルに対応するピクセル位置及び画像成分強度値に基づいて、前記候補位置を決定するステップを含むことができる。
、当該モデルパラメータに基づいて構築された予測モデルもより正確になることができる。
予め設定された候補ピクセル数を決定するステップであって、前記予め設定された候補ピクセル数が前記少なくとも1つの辺に隣接する基準ピクセルからサンプリングされたピクセルの数を表す、ステップと、
前記予め設定された候補ピクセル数と前記少なくとも1つの辺の長さに基づいて、前記候補位置を決定するステップであって、前記少なくとも1つの辺の長さが前記少なくとも1つの辺に含まれるピクセルの数に等しい、ステップと、を含むことができる。
前記予め設定された候補ピクセル数と前記少なくとも1つの辺の長さに基づいて、第1のサンプリング間隔を計算するステップと、
前記少なくとも1つの辺から1つの基準点を決定し、前記第1のサンプリング間隔に従って前記候補位置を決定するステップと、を含むことができる。
前記第1のサンプリング間隔を調整して、第2のサンプリング間隔を取得するステップと、
前記基準点に基づいて、前記第2のサンプリング間隔に従って前記候補位置を決定するステップと、をさらに含むことができる。
前記基準点に基づいて、前記第1のサンプリング間隔に従って前記基準点の一側に対応する候補位置を決定し、前記第2のサンプリング間隔に従って前記基準点の他側に対応する候補位置を決定するステップをさらに含むことができる。
前記少なくとも1つの辺に対応する、予め設定されたスキップピクセル数Kを決定するステップであって、Kが1以上の正の整数である、ステップと、
前記少なくとも1つの辺の開始位置及び/又は端部位置から、K個のスキップすべきピクセルに対応する位置を決定するステップと、
前記K個のスキップすべきピクセルに対応する位置に基づいて、前記少なくとも1つの辺の開始位置及び/又は端部位置から、K個のスキップすべきピクセルを連続的にスキップして、少なくとも1つの新しい辺を取得するステップと、
前記少なくとも1つの新しい辺及び前記予め設定された候補ピクセル数に基づいて、前記候補位置を決定するステップを含むことができる。
前記基準ピクセルサブセットに基づいて、前記現在のブロックに対応する予測すべき画像成分の隣接ピクセル再構成値と、基準ブロックに対応する予測すべき画像成分の隣接ピクセル再構成値とを取得するステップであって、前記現在のブロックがN番目のフレームのビデオ画像に位置し、前記基準ブロックがN-1番目のフレームのビデオ画像に位置するステップと、
前記現在のブロックに対応する予測すべき画像成分の隣接ピクセル再構成値及び前記基準ブロックに対応する予測すべき画像成分の隣接ピクセル再構成値に基づいて、モデルパラメータを計算するステップと、を含むことができる。
前記モデルパラメータに基づいて、前記予測モデルを構築するステップと、
前記予測モデルにより前記現在のブロックの予測すべき画像成分に対して予測処理を行い、前記予測すべき画像成分に対応する予測値を取得するステップと、をさらに含むことができる。
前記第1の基準ピクセルセットから基準ピクセルの一部を選択して基準ピクセルサブセットを構成するステップS601と、
前記基準ピクセルサブセットに基づいて、予測モデルのモデルパラメータを計算するステップS602と、を含むことができる。
前記現在のブロックの1つ又は複数の第1の隣接ピクセルを前記第1の基準ピクセルセットとして決定するステップであって、前記第1の隣接ピクセルが前記現在のブロックの垂直辺、前記現在のブロックの水平辺、又は前記現在のブロックの垂直辺及び水平辺に隣接するピクセルである、ステップを含むことができる。
前記第1の隣接ピクセルが前記現在のブロックの外側にある場合、前記現在のブロックの垂直辺が前記現在のブロックの外側にある左隣接列であり、前記現在のブロックの水平辺が前記現在のブロックの外側にある上隣接行であることを決定するステップをさらに含むことができる。
前記第1の隣接ピクセルが前記現在のブロック内にある場合、前記現在のブロックの垂直辺が前記現在のブロック内にある右辺隣接列であり、前記現在のブロックの水平辺が前記現在のブロック内にある下辺行であることを決定するステップをさらに含むことができる。
現在のブロックの辺で、前記候補ピクセルの候補位置を決定するステップであって、前記現在のブロックの辺が前記現在のブロックの垂直辺水平辺である、ステップと、
前記第1の基準ピクセルセットから前記候補位置にあるピクセルを選択し、選択されたピクセルを使用して前記基準ピクセルサブセットを形成するステップと、を含むことができる。
前記第1の基準ピクセルセット内のピクセルの位置に基づいて、前記候補ピクセルの候補位置を決定するステップを含むことができる。
前記第1の基準ピクセルセット内のピクセルの画像成分強度に基づいて、前記候補ピクセルの候補位置を決定するステップを含むことができる。
前記第1の基準ピクセルセット内のピクセルの位置及び画像成分強度に基づいて、前記候補ピクセルの候補位置を決定するステップを含むことができる。
予め設定された候補ピクセル数を決定するステップであって、前記予め設定された候補ピクセル数が前記現在のブロックの辺上から取得されたピクセルの数を示す、ステップと、
前記第1の予め設定されたピクセル数と前記現在のブロックの辺の長さに基づいて、前記候補ピクセルの候補位置を決定するステップであって、前記現在のブロックの辺の長さが前記第1の基準ピクセルセット内の前記現在のブロックの辺にある基準ピクセルの数に等しい、ステップと、を含むことができる。
前記現在のブロックの辺の長さと前記予め設定された候補ピクセル数に基づいて、第1のサンプリング間隔を計算するステップを含むことができる。
前記第1のサンプリング間隔を調整して、第2のサンプリング間隔を取得するステップを含むことができる。
前記現在のブロックの辺で基準点を決定し、前記基準点から、前記第1のサンプリング間隔に従って前記現在のブロックの辺上の候補位置を決定するステップをさらに含むことができる。
前記現在のブロックの辺で基準点を決定し、前記第1のサンプリング間隔に従って前記基準点の両側の候補位置を決定するステップをさらに含むことができる。
前記現在のブロックの辺で基準点を決定し、前記基準点から、前記第2のサンプリング間隔に従って前記現在のブロックの辺上の候補位置を決定するステップをさらに含むことができる。
前記現在のブロックの辺で基準点を決定し、前記第2のサンプリング間隔に従って前記基準点の両側の候補位置を決定するステップをさらに含むことができる。
前記現在のブロックの辺で基準点を決定し、前記第1のサンプリング間隔に従って前記基準点の一側に対応する候補位置を決定し、前記第2のサンプリング間隔に従って前記基準点の他側に対応する候補位置を決定するステップをさらに含むことができる。
前記現在のブロックの辺の予め設定されたスキップピクセル数Kを決定するステップであって、Kが負でない整数である、ステップと、
前記現在のブロックの辺の端部位置から、K番目のピクセル位置を前記基準点として設定するステップとをさらに含むことができ、
ここで、前記現在のブロックの辺の端部位置は前記現在のブロックの辺の開始ピクセル位置又は端部ピクセル位置である。
前記基準ピクセルサブセット内の基準ピクセル、及び前記基準ピクセルセットの基準ピクセルと同じ位置にある前記現在のブロックの基準ブロックのピクセルを用いて、予測モデルのモデルパラメータを計算するステップを含むことができ、
ここで、前記基準ピクセルサブセット内の基準ピクセルと同じ位置にあるピクセルは、前記基準ブロックが位置する画像内、基準ブロックとの相対位置が前記第2の基準ピクセルセット内の基準ピクセルと前記現在のブロックの間の相対位置と同じであるピクセルである。
前記予測モデルと前記現在のブロックの基準ブロックに基づいて、前記現在のブロックの予測すべき画像成分の予測値を計算するステップをさらに含むことができる。
前記第1の決定ユニット701は、現在のブロックの予測すべき画像成分の第1の基準ピクセルセットを決定するように構成され、
前記第1の決定ユニット701は、さらに前記第1の基準ピクセルセットから基準ピクセルサブセットを決定するように構成され、前記基準ピクセルサブセットには前記第1の基準ピクセルセットから選択された1つ又は複数の候補ピクセルが含まれ、
前記第1の計算ユニット702は、前記基準ピクセルサブセットを用いて予測モデルのモデルパラメータを計算するように構成され、前記予測モデルが前記現在のブロックの予測すべき画像成分に対して成分間予測処理を行うために用いられる。
前記第1の決定ユニット701は、さらに前記現在のブロック又は前記再構成ブロックの少なくとも1つの辺に基づいて、候補ピクセルの候補位置を決定するように構成され、
前記第1の取得ユニット704は、前記第1の基準ピクセルセットから前記候補位置に対応する基準ピクセルを選択し、選択された基準ピクセルを使用して前記基準ピクセルサブセットを形成するように構成される。
前記第1の決定ユニット701は、さらに前記少なくとも1つの辺から1つの基準点を決定し、前記第1のサンプリング間隔に従って前記候補位置を決定するように構成される。
前記第1の決定ユニット701は、さらに前記基準点に基づき、前記第2のサンプリング間隔に従って前記候補位置を決定するように構成される。
前記第1の計算ユニット702は、さらに前記現在のブロックに対応する予測すべき画像成分の隣接ピクセル再構成値及び前記基準ブロックに対応する予測すべき画像成分の隣接ピクセル再構成値に基づいて、モデルパラメータを計算するように構成される。
前記第1の構築ユニット706は、前記モデルパラメータに基づいて、前記予測モデルを構築するように構成され、
前記第1の予測ユニット707は、前記予測モデルにより前記現在のブロックの予測すべき画像成分に対して予測処理を行い、前記予測すべき画像成分に対応する予測値を取得するように構成される。
前記第1の予め設定されたピクセル数と前記現在のブロックの辺の長さに基づいて、前記候補ピクセルの候補位置を決定するように構成され、前記現在のブロックの辺の長さが前記第1の基準ピクセルセット内の前記現在のブロックの辺にある基準ピクセルの数に等しい。
第1の通信インターフェース801は、他の外部ネットワーク要素との情報の送受信プロセスで信号を受信及び送信するように構成され、
第1のメモリ802が第1のプロセッサ803で実行可能なコンピュータプログラムを記憶するように構成され、
第1のプロセッサ803は、前記コンピュータプログラムを実行して、
現在のブロックの予測すべき画像成分の第1の基準ピクセルセットを決定するステップと、
前記第1の基準ピクセルセットから基準ピクセルサブセットを決定するステップであって、前記基準ピクセルサブセットには前記第1の基準ピクセルセットから選択された1つ又は複数の候補ピクセルが含まれる、ステップと、
前記基準ピクセルサブセットを用いて予測モデルのモデルパラメータを計算するステップであって、前記予測モデルが前記現在のブロックの予測すべき画像成分に対して成分間予測処理を行うために用いられる、ステップと、を実行するように構成される。
前記第2の決定ユニット901は、現在のブロックの予測すべき画像成分の第1の基準ピクセルセットを決定するように構成され、
前記第2の決定ユニット901は、さらに前記第1の基準ピクセルセットから基準ピクセルサブセットを決定するように構成され、前記基準ピクセルサブセットには前記第1の基準ピクセルセットから選択された1つ又は複数の候補ピクセルが含まれ、
前記第2の計算ユニット902は、前記基準ピクセルサブセットを用いて予測モデルのモデルパラメータを計算するように構成され、前記予測モデルが前記現在のブロックの予測すべき画像成分に対して成分間予測処理を行うために用いられる。
前記第2の決定ユニット901は、さらに前記現在のブロック又は前記再構成ブロックの少なくとも1つの辺に基づいて、候補ピクセルの候補位置を決定するように構成され、
前記第2の取得ユニット904は、前記第1の基準ピクセルセットから前記候補位置に対応する基準ピクセルを選択し、選択された基準ピクセルを使用して前記基準ピクセルサブセットを形成するように構成される。
前記第2の決定ユニット901は、さらに前記少なくとも1つの辺から1つの基準点を決定し、前記第1のサンプリング間隔に従って前記候補位置を決定するように構成される。
前記第2の決定ユニット901は、さらに前記基準点に基づき、前記第2のサンプリング間隔に従って前記候補位置を決定するように構成される。
前記第2の計算ユニット902は、さらに前記現在のブロックに対応する予測すべき画像成分の隣接ピクセル再構成値及び前記基準ブロックに対応する予測すべき画像成分の隣接ピクセル再構成値に基づいて、モデルパラメータを計算するように構成される。
前記第2の構築ユニット906は、前記モデルパラメータに基づいて、前記予測モデルを構築するように構成され、
前記第2の予測ユニット907は、前記予測モデルにより前記現在のブロックの予測すべき画像成分に対して予測処理を行い、前記予測すべき画像成分に対応する予測値を取得するように構成される。
前記第1の予め設定されたピクセル数と前記現在のブロックの辺の長さに基づいて、前記候補ピクセルの候補位置を決定するように構成され、前記現在のブロックの辺の長さが前記第1の基準ピクセルセット内の前記現在のブロックの辺にある基準ピクセルの数に等しい。
第2の通信インターフェース1001は、他の外部ネットワーク要素との情報の送受信プロセスで信号を受信及び送信するように構成され、
第2のメモリ1002は、第2のプロセッサ1003で実行可能なコンピュータプログラムを記憶するように構成され、
第2のプロセッサ1003は、前記コンピュータプログラムを実行して、
現在のブロックの予測すべき画像成分の第1の基準ピクセルセットを決定するステップと、
前記第1の基準ピクセルセットから基準ピクセルサブセットを決定するステップであって、前記基準ピクセルサブセットには前記第1の基準ピクセルセットから選択された1つ又は複数の候補ピクセルが含まれる、ステップと、
前記基準ピクセルサブセットを用いて予測モデルのモデルパラメータを計算するステップであって、前記予測モデルが前記現在のブロックの予測すべき画像成分に対して成分間予測処理を行うために用いられる、ステップと、を実行するように構成される。
本出願の実施例では、まず、現在のブロックの予測すべき画像成分の第1の基準ピクセルセットを決定し、次に第1の基準ピクセルセットから基準ピクセルサブセットを決定し、基準ピクセルサブセットには前記第1の基準ピクセルセットから選択された1つ又は複数の候補ピクセルが含まれ、基準ピクセルサブセットを用いて予測モデルのモデルパラメータを計算し、予測モデルが前記現在のブロックの予測すべき画像成分に対して成分間予測処理を行うために用いられ、このようにして、第1の基準ピクセルセットのスクリーニング処理により、重要でない基準ピクセル又は異常な基準ピクセルを除去することができるため、第1の基準ピクセルセット内のピクセルの数が減少され、計算の複雑さとメモリ帯域幅を低減することができるだけでなく、予測モデルの精度も向上させることができ、前記予測モデルが前記モデルパラメータによって前記予測すべき画像成分の予測処理を実現するために用いられるため、予測すべき画像成分の予測精度が向上し、ビデオ画像の予測効率が向上する。
Claims (38)
- エンコーダー又はデコーダーに適用される画像成分予測方法であって、
現在のブロックの予測すべき画像成分の第1の基準ピクセルセットを決定するステップと、
前記第1の基準ピクセルセットから基準ピクセルサブセットを決定するステップであって、前記基準ピクセルサブセットには前記第1の基準ピクセルセットから選択された1つ又は複数の候補ピクセルが含まれる、ステップと、
前記基準ピクセルサブセットを用いて予測モデルのモデルパラメータを計算するステップであって、前記予測モデルが前記現在のブロックの予測すべき画像成分に対して成分間予測処理を行うために用いられる、ステップと、を含む、画像成分予測方法。 - 前記現在のブロックの予測すべき画像成分の第1の基準ピクセルセットを決定するステップは、
前記現在のブロックの外側で、前記現在のブロックの少なくとも1つの辺に隣接する基準ピクセルを取得するステップであって、前記現在のブロックの少なくとも1つの辺には上辺、左辺、右上辺及び左下辺の少なくとも1つが含まれる、ステップと、
取得された基準ピクセルに基づいて、前記第1の基準ピクセルセットを取得するステップと、を含むことを特徴とする
請求項1に記載の方法。 - 前記現在のブロックの予測すべき画像成分の第1の基準ピクセルセットを決定するステップは、
再構成ブロック内で、前記再構成ブロックの少なくとも1つの辺に隣接する基準ピクセルを取得するステップであって、前記再構成ブロックが前記現在のブロックに隣接しかつ符号化及び再構成が完了された画像ブロックであり、前記再構成ブロックの少なくとも1つの辺には下辺、右辺、又は下辺及び右辺が含まれる、ステップと、
取得された基準ピクセルに基づいて、前記第1の基準ピクセルセットを取得するステップと、を含むことを特徴とする
請求項1に記載の方法。 - 前記第1の基準ピクセルセットに基づいて、基準ピクセルサブセットを決定するステップは、
前記現在のブロック又は前記再構成ブロックの少なくとも1つの辺に基づいて、候補ピクセルの候補位置を決定するステップと、
前記第1の基準ピクセルセットから前記候補位置に対応する基準ピクセルを選択し、選択された基準ピクセルを使用して前記基準ピクセルサブセットを形成するステップと、を含むことを特徴とする
請求項2又は3に記載の方法。 - 前記現在のブロック又は前記再構成ブロックの少なくとも1つの辺に基づいて、候補ピクセルの候補位置を決定するステップは、
前記少なくとも1つの辺に隣接する基準ピクセルに対応するピクセル位置に基づいて、前記候補位置を決定するステップを含むことを特徴とする
請求項4に記載の方法。 - 前記現在のブロック又は前記再構成ブロックの少なくとも1つの辺に基づいて、候補ピクセルの候補位置を決定するステップは、
前記少なくとも1つの辺に隣接する基準ピクセルに対応する画像成分強度値に基づいて、前記候補位置を決定するステップを含むことを特徴とする
請求項4に記載の方法。 - 前記現在のブロック又は前記再構成ブロックの少なくとも1つの辺に基づいて、候補ピクセルの候補位置を決定するステップは、
前記少なくとも1つの辺に隣接する基準ピクセルに対応するピクセル位置及び画像成分強度値に基づいて、前記候補位置を決定するステップを含むことを特徴とする
請求項4に記載の方法。 - 前記現在のブロック又は前記再構成ブロックの少なくとも1つの辺に基づいて、候補ピクセルの候補位置を決定するステップは、
予め設定された候補ピクセル数を決定するステップであって、前記予め設定された候補ピクセル数が前記少なくとも1つの辺に隣接する基準ピクセルからサンプリングされたピクセルの数を表す、ステップと、
前記予め設定された候補ピクセル数と前記少なくとも1つの辺の長さに基づいて、前記候補位置を決定するステップであって、前記少なくとも1つの辺の長さが前記少なくとも1つの辺に含まれるピクセルの数に等しい、ステップと、を含むことを特徴とする
請求項4に記載の方法。 - 前記現在のブロック又は前記再構成ブロックの少なくとも1つの辺に基づいて、候補ピクセルの候補位置を決定するステップは、
前記予め設定された候補ピクセル数と前記少なくとも1つの辺の長さに基づいて、第1のサンプリング間隔を計算するステップと、
前記少なくとも1つの辺から1つの基準点を決定し、前記第1のサンプリング間隔に従って前記候補位置を決定するステップと、を含むことを特徴とする
請求項8に記載の方法。 - 前記第1のサンプリング間隔を計算するステップの後、前記方法は、
前記第1のサンプリング間隔を調整して、第2のサンプリング間隔を取得するステップと、
前記基準点に基づいて、前記第2のサンプリング間隔に従って前記候補位置を決定するステップと、をさらに含むことを特徴とする
請求項9に記載の方法。 - 前記第2のサンプリング間隔を取得するステップの後、前記方法は、
前記基準点に基づいて、前記第1のサンプリング間隔に従って前記基準点の一側に対応する候補位置を決定し、前記第2のサンプリング間隔に従って前記基準点の他側に対応する候補位置を決定するステップをさらに含むことを特徴とする
請求項10に記載の方法。 - 前記現在のブロック又は前記再構成ブロックの少なくとも1つの辺に基づいて、候補ピクセルの候補位置を決定するステップは、
前記少なくとも1つの辺に対応する、予め設定されたスキップピクセル数Kを決定するステップであって、Kが1以上の正の整数である、ステップと、
前記少なくとも1つの辺の開始位置及び/又は端部位置から、K個のスキップすべきピクセルに対応する位置を決定するステップと、
前記K個のスキップすべきピクセルに対応する位置に基づいて、前記少なくとも1つの辺の開始位置及び/又は端部位置からK個のスキップすべきピクセルを連続的にスキップして、少なくとも1つの新しい辺を取得するステップと、
前記少なくとも1つの新しい辺及び前記予め設定された候補ピクセル数に基づいて、前記候補位置を決定するステップと、を含むことを特徴とする
請求項8-11のいずれか一項に記載の方法。 - 前記基準ピクセルサブセットを用いて予測モデルのモデルパラメータを計算するステップは、
前記基準ピクセルサブセットに基づいて、前記現在のブロックに対応する予測すべき画像成分の隣接ピクセル再構成値と、基準ブロックに対応する予測すべき画像成分の隣接ピクセル再構成値とを取得するステップであって、前記現在のブロックがN番目のフレームのビデオ画像に位置し、前記基準ブロックがN-1番目のフレームのビデオ画像に位置するステップと、
前記現在のブロックに対応する予測すべき画像成分の隣接ピクセル再構成値及び前記基準ブロックに対応する予測すべき画像成分の隣接ピクセル再構成値に基づいて、モデルパラメータを計算するステップと、を含むことを特徴とする
請求項1-12のいずれか一項に記載の方法。 - 前記基準ピクセルサブセットを用いて予測モデルのモデルパラメータを計算するステップの後、前記方法は、
前記モデルパラメータに基づいて、前記予測モデルを構築するステップと、
前記予測モデルにより前記現在のブロックの予測すべき画像成分に対して予測処理を行い、前記予測すべき画像成分に対応する予測値を取得するステップと、をさらに含むことを特徴とする
請求項1に記載の方法。 - 前記現在のブロックの予測すべき画像成分の第1の基準ピクセルセットを決定するステップは、
前記現在のブロックの1つ又は複数の第1の隣接ピクセルを前記第1の基準ピクセルセットとして決定するステップであって、前記第1の隣接ピクセルが前記現在のブロックの垂直辺、前記現在のブロックの水平辺、又は前記現在のブロックの垂直辺及び水平辺に隣接するピクセルである、ステップを含むことを特徴とする
請求項1に記載の方法。 - 前記方法は、
前記第1の隣接ピクセルが前記現在のブロックの外側にある場合、前記現在のブロックの垂直辺が前記現在のブロックの外側にある左隣接列であり、前記現在のブロックの水平辺が前記現在のブロックの外側にある上隣接行であることを決定するステップをさらに含むことを特徴とする
請求項15に記載の方法。 - 前記方法は、
前記第1の隣接ピクセルが前記現在のブロック内にある場合、前記現在のブロックの垂直辺が前記現在のブロック内にある右辺列であり、前記現在のブロックの水平辺が前記現在のブロック内にある下辺行であることを決定するステップをさらに含むことを特徴とする
請求項15に記載の方法。 - 前記基準ピクセルサブセットを決定するステップは、
前記現在のブロックの辺で、前記候補ピクセルの候補位置を決定するステップであって、前記現在のブロックの辺が前記現在のブロックの垂直辺又は水平辺である、ステップと、
前記第1の基準ピクセルセットから前記候補位置にあるピクセルを選択し、選択されたピクセルを使用して前記基準ピクセルサブセットを形成するステップと、を含むことを特徴とする
請求項15に記載の方法。 - 前記候補ピクセルの候補位置を決定するステップは、
前記第1の基準ピクセルセット内のピクセルの位置に基づいて、前記候補ピクセルの候補位置を決定するステップを含むことを特徴とする
請求項18に記載の方法。 - 前記候補ピクセルの候補位置を決定するステップは、
前記第1の基準ピクセルセット内のピクセルの画像成分強度に基づいて、前記候補ピクセルの候補位置を決定するステップを含むことを特徴とする
請求項18に記載の方法。 - 前記候補ピクセルの候補位置を決定するステップは、
前記第1の基準ピクセルセット内のピクセルの位置及び画像成分強度に基づいて、前記候補ピクセルの候補位置を決定するステップを含むことを特徴とする
請求項18に記載の方法。 - 前記候補ピクセルの候補位置を決定するステップは、
予め設定された候補ピクセル数を決定するステップであって、前記予め設定された候補ピクセル数が前記現在のブロックの辺から選択されたピクセルの数を示す、ステップと、
前記第1の予め設定されたピクセル数と前記現在のブロックの辺の長さに基づいて、前記候補ピクセルの候補位置を決定するステップであって、前記現在のブロックの辺の長さが前記第1の基準ピクセルセット内の前記現在のブロックの辺にある基準ピクセルの数に等しい、ステップと、を含むことを特徴とする
請求項18に記載の方法。 - 前記候補ピクセルの候補位置を決定するステップは、
前記現在のブロックの辺の長さと前記予め設定された候補ピクセル数に基づいて、第1のサンプリング間隔を計算するステップを含むことを特徴とする
請求項22に記載の方法。 - 前記候補ピクセルの候補位置を決定するステップは、
前記第1のサンプリング間隔を調整して、第2のサンプリング間隔を取得するステップを含むことを特徴とする
請求項23に記載の方法。 - 前記第1のサンプリング間隔を計算するステップの後、前記方法は、
前記現在のブロックの辺で基準点を決定し、前記基準点から、前記第1のサンプリング間隔に従って前記現在のブロックの辺上の候補位置を決定するステップをさらに含むことを特徴とする
請求項23に記載の方法。 - 前記第1のサンプリング間隔を計算するステップの後、前記方法は、
前記現在のブロックの辺で基準点を決定し、前記第1のサンプリング間隔に従って前記基準点の両側の候補位置を決定するステップをさらに含むことを特徴とする
請求項23に記載の方法。 - 前記第2のサンプリング間隔を取得するステップの後、前記方法は、
前記現在のブロックの辺で基準点を決定し、前記基準点から、前記第2のサンプリング間隔に従って前記現在のブロックの辺上の候補位置を決定するステップをさらに含むことを特徴とする
請求項24に記載の方法。 - 前記第2のサンプリング間隔を取得するステップの後、前記方法は、
前記現在のブロックの辺で基準点を決定し、前記第2のサンプリング間隔に従って前記基準点の両側の候補位置を決定するステップをさらに含むことを特徴とする
請求項24に記載の方法。 - 前記第2のサンプリング間隔を取得するステップの後、前記方法は、
前記現在のブロックの辺で基準点を決定し、前記第1のサンプリング間隔に従って前記基準点の一側に対応する候補位置を決定し、前記第2のサンプリング間隔に従って前記基準点の他側に対応する候補位置を決定するステップをさらに含むことを特徴とする
請求項24に記載の方法。 - 前記方法は、
前記現在のブロックの辺の予め設定されたスキップピクセル数Kを決定するステップであって、Kが負でない整数である、ステップと、
前記現在のブロックの辺の端部位置から、K番目のピクセル位置を前記基準点として設定するステップとをさらに含み、
ここで、前記現在のブロックの辺の端部位置は、前記現在のブロックの辺の開始ピクセル位置又は端部ピクセル位置であることを特徴とする
請求項23-29のいずれか一項に記載の方法。 - 前記基準ピクセルサブセットを用いて予測モデルのモデルパラメータを計算するステップは、
前記基準ピクセルサブセット内の基準ピクセル、及び前記基準ピクセルセット内の基準ピクセルと同じ位置にある前記現在のブロックの基準ブロックのピクセルを用いて、予測モデルのモデルパラメータを計算するステップを含み、
ここで、前記基準ピクセルサブセット内の基準ピクセルと同じ位置にあるピクセルは、前記基準ブロックがある画像に位置する、基準ブロックとの相対位置が前記第2の基準ピクセルセット内の基準ピクセルと前記現在のブロックの間の相対位置と同じであるピクセルであることを特徴とする
請求項1に記載の方法。 - 前記予測モデルのモデルパラメータを計算するステップの後、前記方法は、
前記予測モデルと前記現在のブロックの基準ブロックに基づいて、前記現在のブロックの予測すべき画像成分の予測値を計算するステップをさらに含むことを特徴とする
請求項1に記載の方法。 - 前記基準ブロックは、前記現在のブロックのインター予測パラメータに示される画像ブロックであることを特徴とする請求項31又は32に記載の方法。
- エンコーダーであって、前記エンコーダーは、第1の決定ユニットと第1の計算ユニットとを備え、
前記第1の決定ユニットは、現在のブロックの予測すべき画像成分の第1の基準ピクセルセットを決定するように構成され、
前記第1の決定ユニットは、さらに前記第1の基準ピクセルセットから基準ピクセルサブセットを決定するように構成され、前記基準ピクセルサブセットには前記第1の基準ピクセルセットから選択された1つ又は複数の候補ピクセルが含まれ、
前記第1の計算ユニットは、前記基準ピクセルサブセットを用いて予測モデルのモデルパラメータを計算するように構成され、前記予測モデルが前記現在のブロックの予測すべき画像成分に対して成分間予測処理を行うために用いられる、エンコーダー。 - エンコーダーであって、前記エンコーダーは、第1のメモリと第1のプロセッサとを備え、
前記第1のメモリは、前記第1のプロセッサで実行可能なコンピュータプログラムを記憶するように構成され、
前記第1のプロセッサは、前記コンピュータプログラムを実行して、請求項1-33のいずれか一項に記載の方法を実行するように構成される、エンコーダー。 - デコーダーであって、前記デコーダーは、第2の決定ユニットと第2の計算ユニットとを備え、
前記第2の決定ユニットは、現在のブロックの予測すべき画像成分の第1の基準ピクセルセットを決定するように構成され、
前記第2の決定ユニットは、さらに前記第1の基準ピクセルセットから基準ピクセルサブセットを決定するように構成され、前記基準ピクセルサブセットには前記第1の基準ピクセルセットから選択された1つ又は複数の候補ピクセルが含まれ、
前記第2の計算ユニットは、前記基準ピクセルサブセットを用いて予測モデルのモデルパラメータを計算するように構成され、前記予測モデルが前記現在のブロックの予測すべき画像成分に対して成分間予測処理を行うために用いられる、デコーダー。 - デコーダーであって、前記デコーダーは、第2のメモリと第2のプロセッサとを備え、
前記第2のメモリは、前記第2のプロセッサで実行可能なコンピュータプログラムを記憶するように構成され、
前記第2のプロセッサは、前記コンピュータプログラムを実行して、請求項1-33のいずれか一項に記載の方法を実行するように構成される、デコーダー。 - コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体は、画像予測プログラムが記憶されており、前記画像予測プログラムが第1のプロセッサ又は第2のプロセッサに実行されると、前記第1のプロセッサ又は前記第2のプロセッサに請求項1-33のいずれか一項に記載の方法を実行させる、コンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962823609P | 2019-03-25 | 2019-03-25 | |
US62/823,609 | 2019-03-25 | ||
PCT/CN2019/113765 WO2020192109A1 (zh) | 2019-03-25 | 2019-10-28 | 图像分量预测方法、编码器、解码器以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022528331A true JP2022528331A (ja) | 2022-06-10 |
JPWO2020192109A5 JPWO2020192109A5 (ja) | 2022-10-14 |
Family
ID=72609614
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021556936A Pending JP2022528331A (ja) | 2019-03-25 | 2019-10-28 | 画像成分予測方法、エンコーダー、デコーダー及び記憶媒体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220007011A1 (ja) |
EP (1) | EP3930324A4 (ja) |
JP (1) | JP2022528331A (ja) |
KR (1) | KR20210138760A (ja) |
CN (2) | CN113508584A (ja) |
WO (1) | WO2020192109A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240065140A (ko) * | 2022-10-20 | 2024-05-14 | 텐센트 아메리카 엘엘씨 | 로컬 조명 보상의 개선 |
WO2024090923A1 (ko) * | 2022-10-26 | 2024-05-02 | 주식회사 윌러스표준기술연구소 | 휘도 샘플 기반 색차 샘플 예측을 사용하는 비디오 신호 처리 방법 및 이를 위한 장치 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9462273B2 (en) * | 2011-11-04 | 2016-10-04 | Huawei Technologies Co., Ltd. | Intra-frame prediction and decoding methods and apparatuses for image signal |
WO2018056603A1 (ko) * | 2016-09-22 | 2018-03-29 | 엘지전자 주식회사 | 영상 코딩 시스템에서 조도 보상 기반 인터 예측 방법 및 장치 |
WO2018067732A1 (en) * | 2016-10-05 | 2018-04-12 | Qualcomm Incorporated | Systems and methods of adaptively determining template size for illumination compensation |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7664184B2 (en) * | 2004-07-21 | 2010-02-16 | Amimon Ltd. | Interpolation image compression |
JP2013141187A (ja) * | 2012-01-06 | 2013-07-18 | Sony Corp | 画像処理装置及び画像処理方法 |
EP3171597A4 (en) * | 2014-07-18 | 2017-12-13 | Panasonic Intellectual Property Corporation of America | Image encoding method, image decoding method, image encoding apparatus, image decoding apparatus, and content delivery method |
US9998742B2 (en) * | 2015-01-27 | 2018-06-12 | Qualcomm Incorporated | Adaptive cross component residual prediction |
CN108600749B (zh) * | 2015-08-29 | 2021-12-28 | 华为技术有限公司 | 图像预测的方法及设备 |
KR20230101932A (ko) * | 2016-04-29 | 2023-07-06 | 인텔렉추얼디스커버리 주식회사 | 영상 신호 부호화/복호화 방법 및 장치 |
CN106210747A (zh) * | 2016-07-19 | 2016-12-07 | 北京工业大学 | 一种基于四叉树概率预测的低复杂度视频编码方法 |
JP2018056685A (ja) * | 2016-09-27 | 2018-04-05 | 株式会社ドワンゴ | 画像符号化装置、画像符号化方法、及び画像符号化プログラム、並びに、画像復号装置、画像復号方法、及び画像復号プログラム |
US10225573B1 (en) * | 2017-01-31 | 2019-03-05 | Google Llc | Video coding using parameterized motion models |
CN107580222B (zh) * | 2017-08-01 | 2020-02-14 | 北京交通大学 | 一种基于线性模型预测的图像或视频编码方法 |
-
2019
- 2019-10-28 WO PCT/CN2019/113765 patent/WO2020192109A1/zh unknown
- 2019-10-28 EP EP19921790.2A patent/EP3930324A4/en active Pending
- 2019-10-28 CN CN201980093368.8A patent/CN113508584A/zh active Pending
- 2019-10-28 JP JP2021556936A patent/JP2022528331A/ja active Pending
- 2019-10-28 CN CN202111193882.4A patent/CN113992916B/zh active Active
- 2019-10-28 KR KR1020217034571A patent/KR20210138760A/ko active Search and Examination
-
2021
- 2021-09-21 US US17/480,865 patent/US20220007011A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9462273B2 (en) * | 2011-11-04 | 2016-10-04 | Huawei Technologies Co., Ltd. | Intra-frame prediction and decoding methods and apparatuses for image signal |
WO2018056603A1 (ko) * | 2016-09-22 | 2018-03-29 | 엘지전자 주식회사 | 영상 코딩 시스템에서 조도 보상 기반 인터 예측 방법 및 장치 |
JP2019530345A (ja) * | 2016-09-22 | 2019-10-17 | エルジー エレクトロニクス インコーポレイティド | 映像コーディングシステムにおける照度補償基盤インター予測方法及び装置 |
WO2018067732A1 (en) * | 2016-10-05 | 2018-04-12 | Qualcomm Incorporated | Systems and methods of adaptively determining template size for illumination compensation |
JP2019531029A (ja) * | 2016-10-05 | 2019-10-24 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 照度補償のためのテンプレートサイズを適応的に決定するシステムおよび方法 |
Non-Patent Citations (4)
Title |
---|
JANGWON CHOI, ET AL.: ""CE3-related : Reduced number of reference samples for CCLM parameter calculation"", DOCUMENT: JVET-L0138-V2, [ONLINE], vol. JVET-L0138 (version 3), JPN6022021220, 6 October 2018 (2018-10-06), pages 1 - 5, ISSN: 0005158964 * |
JIANLE CHEN, ET AL.: ""Algorithm Description of Joint Exploration Test Model 7 (JEM 7)"", DOCUMENT: JVET-G1001-V1, [ONLINE], vol. JVET-G1001 (version 1), JPN6023039647, 19 August 2017 (2017-08-19), pages 10 - 12, ISSN: 0005158962 * |
JUNYAN HUO, ET AL.: ""CE3-related: Fixed Reference Samples Design for CCLM"", DOCUMENT: JVET-M0211-V3, [ONLINE], vol. JVET-M0211 (version 3), JPN6022036692, 10 January 2019 (2019-01-10), pages 1 - 6, ISSN: 0005158961 * |
XIANG MA, ET AL.: ""CE3: CCLM/MDLM using simplified coefficients derivation method (Test 5.6.1, 5.6.2 and 5.6.3)"", DOCUMENT: JVET-L0340_R1, [ONLINE], vol. JVET-L0340 (version 5), JPN6022021219, 23 October 2018 (2018-10-23), pages 1 - 6, ISSN: 0005158963 * |
Also Published As
Publication number | Publication date |
---|---|
WO2020192109A1 (zh) | 2020-10-01 |
CN113508584A (zh) | 2021-10-15 |
CN113992916B (zh) | 2023-06-27 |
EP3930324A1 (en) | 2021-12-29 |
CN113992916A (zh) | 2022-01-28 |
KR20210138760A (ko) | 2021-11-19 |
US20220007011A1 (en) | 2022-01-06 |
EP3930324A4 (en) | 2022-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2696318C1 (ru) | Усовершенствованное кодирование с внутрикадровым предсказанием с использованием планарных представлений | |
JP2022526663A (ja) | クロスコンポーネントモードの利用可能性に対する制約 | |
JP7448563B2 (ja) | 画像コーデック方法、エンコーダ、デコーダおよび記憶媒体 | |
JP2022528331A (ja) | 画像成分予測方法、エンコーダー、デコーダー及び記憶媒体 | |
JP2023510666A (ja) | 画像コンポーネント予測方法、エンコーダ、デコーダ及び記憶媒体 | |
JP7481332B2 (ja) | デコードのための予測方法及びその装置、並びにコンピュータ記憶媒体 | |
JP2022522487A (ja) | 画像成分予測方法、エンコーダ、デコーダ及び記憶媒体 | |
US20230396780A1 (en) | Illumination compensation method, encoder, and decoder | |
CN113395520B (zh) | 解码预测方法、装置及计算机存储介质 | |
CN112585967A (zh) | 帧内预测装置、图像编码装置、图像解码装置及程序 | |
JP2022521366A (ja) | イントラ予測方法、装置およびコンピュータ記憶媒体 | |
JP7448568B2 (ja) | 画像成分の予測方法、装置およびコンピュータ記憶媒体 | |
WO2022174478A1 (zh) | 编码方法、解码方法、编码器、解码器及存储介质 | |
WO2024145790A1 (zh) | 解码方法、编码方法、解码器和编码器 | |
RU2781240C1 (ru) | Способ и устройство предсказания для декодирования и компьютерный носитель данных | |
CN118160306A (zh) | 帧内预测方法、解码器、编码器及编解码系统 | |
JP2022528333A (ja) | 色成分予測方法、エンコーダー、デコーダー及びコンピュータ記憶媒体 | |
KR20210114961A (ko) | 예측 방향 결정 방법, 디코더 및 컴퓨터 저장 매체 | |
JP2022522826A (ja) | イントラ予測方法及び装置、コンピュータ可読記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221005 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221005 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231226 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240315 |